Marianne Reddan đã dành 10 năm qua để quan sát khuôn mặt người, nghiên cứu hai cảm xúc khác biệt nhưng có liên quan mật thiết với nhau: bất ngờ và sợ hãi. Sau rất nhiều thời gian tìm hiểu về sự phức tạp của biểu cảm khuôn mặt, cô dường như không thể phân biệt chúng được nữa.
Đó là lý do tại sao Reddan, chuyên ngành khoa học thần kinh bậc sau Tiến sĩ tại Đại học Stanford, xác định: nghiên cứu của cô là nhằm chế tạo một hệ thống máy móc phân biệt thành công cảm xúc của con người ngoài hai loại cảm xúc nói trên.
Reddan đã rất ấn tượng khi thấy rằng: hệ thống có tên gọi là EmoNet , không chỉ nhìn vào biểu cảm trên khuôn mặt để cảm nhận cảm xúc của con người, mà còn tìm ra manh mối thuộc bối cảnh để xác định tâm trạng chung, giống như cách mà con người vẫn thường làm.
“Nếu EmoNet có thể phân biệt được hai trạng thái ngạc nhiên và sợ hãi, thì nó không chỉ thu nhận những biểu cảm trên khuôn mặt, mà còn tiếp thu thêm điều gì đó quan trọng về những hành động đang diễn ra", Red Reddan nói với Daily Beast.
Ứng dụng này được phát triển trong vòng 1 năm bởi các nhà nghiên cứu từ Đại học Colorado Boulder và Đại học Duke.
Ban đầu, Reddan và các đồng nghiệp của cô đã tái sử dụng AlexNet, một mô hình chuyên sâu cho phép máy tính nhận ra các vật thể (nó được mô phỏng theo vỏ thị giác của con người), đồng thời, đào tạo lại để khiến nó nhận ra được cảm xúc thay vì các vật thể như mục đích ban đầu.
AlexNet dùng để xác định các đối tượng khác nhau bằng cách cung cấp cho nó hình ảnh của nhiều mặt hàng như ghế và bút, sau đó, ứng dụng này sẽ gán nhãn hiệu phân loại cho hình ảnh. Reddan và các nhà nghiên cứu tự hỏi: Liệu một phân đoạn tương tự có thể được thực hiện với cảm xúc hay không? Với thực tế rằng máy móc đang trở nên linh động hơn trong việc phát hiện các vật thể, nó dường như đã sẵn sàng cho một thử thách mới.
Trưởng nhóm nghiên cứu Philip Kragel, người làm việc như một cộng tác viên nghiên cứu tại Viện Khoa học nhận thức của Đại học Colorado, đã cung cấp cho mạng lưới thần kinh nhân tạo nói trên 25.000 hình ảnh và yêu cầu hệ thống sắp xếp chúng thành 20 loại cảm xúc, trong đó một số cảm xúc rất tinh tế và khó nhận biết.
Danh sách này bao gồm những cảm xúc như lo lắng và buồn chán, ngoài ra còn có những trải nghiệm của con người ít rõ ràng hơn, như “sự đánh giá cao về mặt thẩm mỹ” và cảm giác “đau đớn”. Sau khi phân tích các hình ảnh, mạng lưới thần kinh hiểu được ý nghĩa về những gì nó nhìn thấy bằng cách phân tích các biểu hiện trên khuôn mặt và tư thế cơ thể của con người.
Sau đây là phần phân tích các kỹ năng phân loại cảm xúc của Emonet so với bộ não của con người thông thường. Mười tám đối tượng là người thật đã được kết nối với các máy chụp có chức năng cộng hưởng (fMRI). Hoạt động não của họ được đo khi chiếu flash tạo ra 112 hình ảnh, và mạng lưới thần kinh nhân tạo Emonet sẽ phân tích các hình ảnh một cách đồng thời.
Kết quả cho thấy mạng nơ-ron nhân tạo có khả năng theo dõi các phản ứng cảm xúc của con người và tạo ra “những kết quả cụ thể, phong phú giống như của người thật”, theo bài báo được đăng trên tạp chí Science Advances.
Xây dựng một mạng lưới thần kinh, hay một chương trình máy tính mô phỏng bộ não con người, đã là giấc mơ của ngành khoa học trong nhiều năm qua, nhưng ngay cả các máy tính tinh vi nhát cũng phải “vật lộn” với một số khía cạnh của con người. “Cảm xúc là một phần quan trọng trong cuộc sống.” Kragel đã nói với tờ Daily Beast. “Nếu mạng lưới thần kinh nhân tạo không giải thích được các mấu chốt của cảm xúc, nó sẽ rất khó để thấu hiểu một cách sâu sắc về cách thức hoạt động của bộ não con người.”
Kragel đã rất ngạc nhiên khi mạng lưới thần kinh nhân tạo hoạt động tốt, nhưng nó vẫn còn một số hạn chế. Hai loại cảm xúc mà hệ thống phân loại chính xác nhất là “ham muốn tình dục” và “sự thèm thuồng”, nhưng nó thường gặp khó khăn đối với những cảm xúc mang tính bùng nổ như bất ngờ. Cảm xúc này có thể dễ dàng nhầm lẫn với sự “vui vẻ” hoặc “tức giận”. Hệ thống cũng đã cố gắng để nói lên sự khác biệt giữa các cảm xúc như yêu quý, phấn khích, vui vẻ được một phần nào đó vì những cảm xúc đó có sự thể hiện mật thiết với nhau.
Trong tương lai, một mạng lưới thần kinh nhân tạo như Emonet có thể được sử dụng để kiểm duyệt nội dung trực tuyến, đóng vai trò là bộ lọc nội dung các bài đăng, trước khi chúng được công khai chính thức đến cộng đồng.
Nhà nghiên cứu Hannah Davis, giáo sư về âm nhạc điện tử tại NYU đồng thời là cựu học giả OpenAI, trước đây đã từng làm việc trong một dự án nơi cô sử dụng AI để tạo ra “viễn cảnh cảm xúc” trên máy tính nhằm gợi lên những cảm xúc khác nhau của con người. Cô nói rằng: nghiên cứu mới về mạng lưới nơ-ron nhân tạo thực sự sáng tạo bằng cách lập ra bản đồ các chuyển động của não và tạo ra một mô hình có thể giải mã biểu cảm khuôn mặt theo các bản đồ đó.
Nhưng trong khi Davis tin rằng việc dạy máy tính đọc cảm xúc vốn dĩ không nguy hiểm, thì “cũng tồn tại nguy cơ rằng không phải tất cả bộ não đều hoạt động như nhau và phân loại hành vi của mọi người dựa trên các mô hình quá chung chung là không thể.”, Cô viết trong email.
Trong tương lai, Kragel muốn nghiên cứu thêm liệu một mạng lưới thần kinh như EmoNet có thể phân loại cảm xúc trong ngôn ngữ nói, sử dụng âm sắc để phát hiện sự khác biệt hay không.
Reddan vẫn rất thận trọng và hoài nghi về mục tiêu cuối cùng của nghiên cứu. Việc phát hiện một biểu hiện trên khuôn mặt tương quan với cảm xúc của con người không giống như việc thấu hiểu được cảm xúc ấy một cách rõ ràng.
“Liệu hệ thống trên có cảm nhận được cảm xúc? Chắc chắn là không. Nó chỉ phân loại và sắp xếp thành các đặc điểm cấu tạo nên biểu cảm, tất cả đều không phải là sự phức tạp trong trải nghiệm của con người.”, Lau Reddan nói với Daily Beast. “Một ngày nào đó hệ thống cảm nhận được không? Chắc có lẽ."
Theo http://vietq.vn