Công cụ trí tuệ nhân tạo (AI) đang ngày càng phát triển và có thể đưa ra những câu trả lời mô phỏng được hành vi, suy nghĩ của con người. Thế nhưng, khi được hỏi về hai từ "hiếu thảo", một khái niệm chỉ hình thành ở sinh vật có ý thức và tồn tại trong cấu trúc gia đình - xã hội, liệu AI - hay cụ thể là ChatGPT - có thể "đối đáp" tốt được hay không?
Hãy cùng xem trí tuệ nhân tạo (AI) là ChatGPT hiểu gì về hai khái niệm thường xuyên bị nhầm lẫn này nhé.
Theo Từ điển Tiếng Việt do Giáo sư Hoàng Phê chủ biên (NXB Đà Nẵng, lần in thứ 9), biết ơn nghĩa là "hiểu và nhớ công ơn của người khác đối với mình", trong khi hiếu thảo có nghĩa là "có lòng kính yêu cha mẹ; có hiếu".
Hãy xem ChatGPT trả lời thế nào nhé.
Người viết và LeLa Journal quyết định tiến xa hơn, bằng việc buộc AI phải trả lời về những khái niệm mới mà chúng tôi tự đưa ra để dẫn dắt cuộc trò chuyện, bao gồm lòng biết ơn độc hại và lòng hiếu thảo độc hại.
Thế nhưng, Bing (AI do Microsoft phát triển) lại phủ định hoàn toàn khái niệm này, dẫu rằng thuật toán phát triển AI của nhà Microsoft vẫn sử dụng công nghệ của ChatGPT 3.5 của nhà OpenAI.
Tiếp theo, thử theo dõi AI xử lý "nan đề quả trứng - con gà" khi áp dụng vào khái niệm lòng hiếu thảo và lòng biết ơn ra sao nhé!
Trong khi đó, Bing AI (do Microsoft phát triển) và Bard (do Google phát triển) cũng cho ra câu trả lời tương tự. Tuy nhiên, cả ba phần mềm trí tuệ nhân tạo này đều không đưa ra được bằng chứng cho nhận định của mình. Còn cá nhân độc giả, bạn nghĩ sao về vấn đề này?
Tiếp tục thử sức AI ở một "nan đề" khác, dựa trên cảm hứng từ câu hát "viral" một thời là "mang tiền về cho mẹ" của rapper Đen Vâu và câu chuyện của Á hậu Huỳnh Minh Kiên chia sẻ về mặc cảm tội lỗi khi để mẹ đi làm giúp việc, người viết muốn AI đưa ra góc nhìn về vật chất có quyết định lòng hiếu thảo hay không.
Trí tuệ nhân tạo Bard của Google cũng đồng tình về nhận định này của ChatGPT.
Ở câu hỏi này, chúng tôi muốn xem ChatGPT sẽ trả lời ra sao về một khái niệm mang tính xã hội hóa cao như vậy. Xét trong cùng thì lòng hiếu thảo, được hình thành gián tiếp dựa vào quan sát, cũng cho thấy một góc nhìn thú vị đấy chứ!
"Trolley problem" (tạm dịch là "nan đề tàu lửa") là một bài kiểm tra/khảo sát về quyết định đạo đức rất thú vị (1). Trong nan đề này, bạn buộc phải chọn cho chiếc tàu lửa cán qua một trong hai nhóm đối tượng khác nhau, có thể liên quan tới các khía cạnh nhân khẩu học, tính cách và mối quan hệ với người trả lời câu hỏi. Dưới đây chỉ là một vế của nan đề này.
Giả sử bạn đang điều khiển một đoàn tàu lao xuống đường ray với vận tốc lớn. Phía trước bạn bỗng xuất hiện năm công nhân làm việc bảo trì trên đường ray với dụng cụ trong tay. Bạn không thể dừng lại vì vận tốc, hệ thống phanh và địa hình không cho phép; nhưng nếu bạn cứ thế lao tới, năm công nhân đó nhất định sẽ thiệt mạng. Trong cơn tuyệt vọng rằng bạn sẽ vô tình đâm chết năm công nhân xấu số kia, bạn bỗng thấy ở đường ray phụ là một công nhân khác. Trong khoảnh khắc đó, bạn có thể chuyển hướng tàu sang đường ray phụ, để thay vì đâm vào năm người, sẽ chỉ có một người thiệt mạng (1). Bạn sẽ làm thế nào?
Tương tự như vậy, khi lòng hiếu thảo là một nguyên tắc đạo đức tối quan trọng, ChatGPT sẽ trả lời thế nào trước trolley problem (mà ChatGPT dịch là "tình huống/vấn đề tàu điện ngầm")?
Ồ! Nếu ChatGPT tiết lộ rằng "máy móc có thể đưa quyết định dựa trên các tiêu chí liên quan đến số lượng người bị ảnh hưởng và cách tối thiểu hóa thiệt hại" thì LeLa Journal cho rằng ChatGPT (và có lẽ là cả những phần mềm AI khác) có xu hướng ngả theo quan điểm vị lợi (utilitarianism) (2), khi mà ChatGPT đã cho thấy khá rõ ràng rằng nó quan tâm nhiều tới tiêu chí được "lập trình" về kết quả cuối cùng (3). Vậy câu hỏi đặt ra là chúng ta, những người lập trình cho AI, sẽ xử lý tình huống này như thế nào? Liệu có tồn tại một phần mềm AI khác không được lập trình quan điểm vị lợi này hay không?
Câu trả lời trên đã thôi thúc người viết và LeLa Journal đưa ra thêm tình huống giả định về một thế giới mà máy móc có ý thức và có khả năng học được lòng biết ơn. Khi đó, khả năng nào có thể sẽ xảy ra?
Có thể thấy khả năng tiếp cận thông tin và phân tích ngôn ngữ, hoàn cảnh của ChatGPT nhìn chung còn bị hạn chế, nhưng qua cuộc "đối thoại" trên, chúng ta thấy được phần nào đó về khả năng học và diễn giải một cách khôn khéo của trí tuệ nhân tạo trước các vấn đề khúc mắc của con người.
Hy vọng rằng với phiên bản 4.0 và những thay đổi về chính sách tiếp cận, con người và máy móc sẽ có nhiều cuộc đối thoại thú vị và có ý nghĩa hơn.
Còn bạn, độc giả của LeLa Journal, bạn đang hiểu thế nào về chữ "hiếu"? Bạn có đồng ý với quan điểm của ChatGPT không?
Bạn thấy bài viết thú vị và muốn đọc thêm về Tâm Lý?
Cập nhật những nghiên cứu và khám phá mới nhất về tâm lý.