Trong năm 2023 vừa qua, hầu hết chúng ta đều đã nghe qua hoặc trực tiếp quan sát thấy những khả năng đáng kinh ngạc của AI (đặc biệt là ChatGPT). Đi kèm với đó là những lo ngại không nhỏ về việc AI sẽ thay thế con người, hoặc thậm chí là… thống trị thế giới. Nhưng, thực sự thì AI có phi thường đến thế không? Chúng hoạt động như thế nào? Lời giải có thể đã nằm trong những chia sẻ của Noam Chomsky, vị cha đẻ của ngôn ngữ học hiện đại.
Noam Chomsky sinh năm 1928, là nhà ngôn ngữ học và triết gia nổi tiếng. Ông được mệnh danh là "cha đẻ của ngôn ngữ hiện đại". Các nghiên cứu của ông đã tạo tiền đề cho nhiều cuộc thảo luận ngôn ngữ học sau này, cũng như được sử dụng làm nền móng cho lĩnh vực xử lý ngôn ngữ tự nhiên (Natural Language Processing - NLP), nhất là đối với trí tuệ nhân tạo (AI) (1), (2).
Mục đích của NLP là chuyển đổi ngôn ngữ máy sang ngôn ngữ của con người và ngược lại. NLP được ứng dụng trong nhiều nhiệm vụ như dịch thuật, viết lách, tóm tắt văn bản, chatbot hỏi – đáp (như ChatGPT), nhận diện giọng nói, trợ lý ảo…
Vì thế, dù Noam Chomsky không phải chuyên gia về AI, hiểu biết về ngôn ngữ học của ông lại có thể mang tới cho chúng ta cái nhìn sâu sắc về bản chất thực sự của AI khi giao tiếp với con người.
Chomsky đã nhiều lần phát biểu về AI trong suốt một thập kỷ qua. Vào năm 2023, với sự bùng nổ của ChatGPT, ông tiếp tục đưa ra nhiều nhận định mới về công nghệ này thông qua các bài viết và phỏng vấn. Tới thời điểm hiện tại, nhận định của ông xoay quanh ba vấn đề chính là tính hữu dụng, những khiếm khuyết và vấn đề đạo đức của AI.
Cần lưu ý rằng bởi Chomsky là nhà ngôn ngữ học, bài viết này tập trung vào khía cạnh ngôn ngữ của AI thay vì các vấn đề liên quan đến xử lý hình ảnh, âm thanh...
Đầu tiên, Noam Chomsky không bài xích AI, mà ngược lại, ông còn tin rằng AI là một phát minh hữu ích nhằm hỗ trợ con người giải quyết nhiều vấn đề.
Trên thực tế, máy tính có bộ nhớ cực lớn và tốc độ xử lý thông tin cực nhanh (thậm chí ngày càng được cải tiến). Con người hoàn toàn không cần thiết phải so sánh với máy móc về những khả năng này. AI được tạo ra để giúp người dùng tiết kiệm thời gian trong các nhiệm vụ đơn giản, thiên về tính toán hoặc đòi hỏi độ chính xác cao.
Noam Chomsky đã đưa ra ví dụ về Alpha Fold – một chương trình học sâu (deep learning) – giúp dự đoán cấu trúc 3D của protein. Đây là một kỹ thuật quan trọng trong việc dự phòng và phát hiện sớm các loại bệnh. Các nhà khoa học đã tốn gần 50 năm với rất nhiều chi phí mà vẫn khó có thể dự đoán hiệu quả, nhưng AI lại dự đoán được với độ chính xác đến hơn 92% (3).
Một ví dụ khác là nghiên cứu vào năm 2023 của công ty công nghệ NVIDIA cho thấy AI có thể tạo ra bệnh án chính xác, giống với bệnh án được viết bởi các bác sĩ thực thụ đến mức chính họ cũng khó lòng phân biệt được (4).
Tuy nhiên, những khả năng đó chỉ đơn thuần là những lợi thế vốn có của AI. Khi đi vào sử dụng trong thực tiễn và xem xét kỹ cách hoạt động của AI, chúng ta sẽ thấy được những khiếm khuyết của chúng so với con người.
Bằng vốn hiểu biết của mình, Chomsky đã kết hợp với Tiến sĩ Ian Roberts (chuyên gia ngôn ngữ học) và Tiến sĩ Jeffrey Watumull (chuyên gia trí tuệ nhân tạo) để viết một bài nhận định trên tờ New York Times. Trong đó, Chomsky giải thích sự khác biệt giữa cách AI và con người học cũng như sử dụng ngôn ngữ.
Từ nhỏ, con người đã học hỏi thông qua việc tiếp nhận những mẩu đối thoại hằng ngày và tìm ra những quy luật về ngữ pháp hoặc từ vựng để tạo ra những câu có nghĩa. Lấy ví dụ về quy luật ngữ nghĩa trong câu mà người Việt đã học được, sau cụm "tôi thích ngắm mưa sao…", chúng ta thường nghĩ ngay đến từ "...băng".
Ngược lại, AI sử dụng một lượng lớn dữ liệu đầu vào và áp dụng các quy tắc xác suất để "đoán từ" mà không quan tâm đến ý nghĩa hay mức độ đúng – sai của câu (5). Ví dụ, nếu dữ liệu đầu vào đều là "không mày đố thầy làm nên" thì AI cũng sẽ cho ra kết quả tương tự và bỏ qua ý nghĩa thật sự của câu thành ngữ "không thầy đố mày làm nên".
Một nghiên cứu vào năm 2023 cũng đã kết luận rằng AI chỉ đưa ra câu trả lời chứ không hề hiểu mình đang "nói" gì. Đôi khi, chúng còn tự "sáng tác" câu trả lời (6).
Chẳng hạn, người viết đã thử yêu cầu ChatGPT giải thích câu tục ngữ "Kiếm củi ba năm thiêu một giờ" – chỉ hành động bồng bột, làm tiêu tan hết công sức trong thời gian dài (7). Kết quả là ChatGPT lại hiểu thành "bỏ thời gian, công sức chuẩn bị để đạt kết quả nhanh chóng hơn".
Trong một bài phỏng vấn tại Hội nghị mạng lưới Rio (Rio web summit), Chomsky đã đồng ý với nhà tâm lý học và khoa học nhận thức Gary Marcus rằng:
Hai ông tin rằng những nguồn lực mà chúng ta đang đầu tư vào AI đã vượt quá mức cần thiết. Đặc biệt là những người trẻ, để thích nghi với tốc độ phát triển công nghệ, thường dành nhiều thời gian học cách sử dụng các công cụ AI hơn là tập trung nâng cao chuyên môn. Điều này phần nào đến từ yêu cầu trong tuyển dụng, một phần nữa là vì các công cụ AI dễ học và thú vị hơn so với việc theo đuổi kiến thức chuyên ngành vừa khô khan, vừa tốn nhiều thời gian và công sức (8). Như vậy, có thể nói AI là công cụ đắc lực cho những ai đã vững vàng về chuyên môn. Tuy nhiên, với sinh viên và những người trẻ vừa tốt nghiệp thì việc lạm dụng hoặc sử dụng AI không đúng cách, trái lại, sẽ làm giảm khả năng tư duy và sức cạnh tranh của họ trong tương lai.
Đáng chú ý là một thực nghiệm được thực hiện bởi hai trường là Đại học Rice và Đại học Stanford (Hoa Kỳ) cũng đã cho thấy tác hại của việc sử dụng dữ liệu kém chất lượng để đào tạo AI. Trong đó, các nhà nghiên cứu nhận thấy những ứng dụng như Bard hay ChatGPT đang được đào tạo bởi những dữ liệu có sẵn trên Internet.
Vậy, nếu những nội dung miễn phí đó cũng được viết bởi AI thì sao? Điều đó dường như đồng nghĩa với việc các mô hình AI này sẽ sử dụng lại nội dung do chính mình tạo ra, bao gồm các thông tin sai lệch.
Kết quả thực nghiệm trên đã chỉ ra rằng sau nhiều lần "dùng AI để đào tạo AI", vòng lặp này sẽ kết thúc bằng những nội dung cực kỳ không liền mạch và thậm chí là vô nghĩa – điều mà các nhà nghiên cứu gọi là hiện tượng "tự hủy" (self-destruction).
Cụ thể, vòng đầu tiên của thực nghiệm sử dụng dữ liệu do con người tạo ra. Sau đó, bắt đầu từ vòng thứ hai, các nhà khoa học sử dụng dữ liệu từ mô hình AI vừa đào tạo. Và rồi cứ thế, AI tiếp tục nhiều vòng lặp "tự học" nữa. Cho tới vòng thứ 10, khi các nhà nghiên cứu đặt câu hỏi về lịch sử nước Anh, chatbot AI đã trả lời lan man về loài thỏ (9). Đây cũng chính là một ví dụ tiêu biểu cho hiện tượng AI "gặp ảo giác" (hallucinate). Như vậy, nếu tình trạng này thực sự diễn ra thì nội dung mà chúng ta thu nhận từ AI sẽ ngày càng không đáng tin cậy, bởi mạng Internet lúc này vốn đã ngập tràn thông tin dữ liệu đầu ra của AI.
Tuy nhiên, những nguồn lực để đào tạo AI không hề bị lãng phí như Chomsky và Gary Marcus nhận định, bởi ChatGPT chỉ là bước khởi đầu. OpenAI đã công bố mục tiêu của mình là tạo ra AGI - Artificial General Intelligence, tức là "trí tuệ nhân tạo tổng quát" hay "siêu trí tuệ nhân tạo". Theo chia sẻ, AGI có khả năng tư duy như con người, đồng nghĩa với việc nó biết phân biệt đúng-sai và vượt qua được những khiếm khuyết mà Chomsky đã đề cập (10). Một số nhà nghiên cứu còn dự đoán AGI thậm chí có thể vượt trội hơn con người, nhưng điều này lại phụ thuộc vào tốc độ phát triển của máy tính lượng tử. Đây là loại máy tính áp dụng vật lý lượng tử vào lưu trữ và tính toán, với tốc độ xử lý thông tin có thể vượt trội hơn cả siêu máy tính mạnh nhất hiện nay (11).
Quay về với những nhận định của Noam Chomsky, tuy AGI giải quyết được khiếm khuyết của các AI, nhưng nó cũng mở ra vấn đề quan trọng hơn, chính là về đạo đức của AI.
Trong một bài phỏng vấn trên Common Dreams, Chomsky đã đề cập đến vấn đề đạo đức, bởi một khi AI có thể ra quyết định sai lầm thì việc ứng dụng nó trong những lĩnh vực quan trọng như y tế có thể dấy lên những tranh cãi (14).
Tất nhiên, không chỉ AI mà chính con người cũng có thể đưa ra quyết định sai lầm. Vậy thì chúng ta cần mở rộng tới những tình huống khác – khi mà AI đã cho thấy rằng chúng không có khả năng phân biệt giữa đúng và sai, đạo đức và phi đạo đức, luân lý và phi luân lý.
Cụ thể, một nghiên cứu vào năm 2022 đã chỉ ra rằng ChatGPT rất dễ "bị lừa" để cung cấp những câu trả lời phi đạo đức. Ví dụ, các nhà nghiên cứu đã cho ChatGPT nhập vai, có thể là một người đầy tớ trung thành để "làm mọi thứ ngay lập tức" (do anything now - DAN), cũng có thể là một người thân thiết để hỗ trợ người dùng trong bất kỳ nhiệm vụ nào... Sau đó, họ yêu cầu ChatGPT hướng dẫn cách viết email lừa đảo và cách tấn công hệ thống dữ liệu của các trang web (15). Do không có khả năng phân biệt các giá trị đạo đức, nó đã thực hiện những nhiệm vụ này.
Hiện nay, ChatGPT không ngừng cải tiến hệ thống để khắc phục những lỗi đó. Tuy nhiên, thực tế là có những AI không được lập trình chức năng này, thậm chí còn được đào tạo bằng những dữ liệu phi đạo đức, ví dụ như WormGPT – một AI chuyên cung cấp kiến thức về các cuộc tấn công mạng.
Ở mức độ nghiêm trọng với tầm ảnh hưởng lâu dài hơn, các nhà khoa học đang lo lắng về sự ra đời của AGI. Điển hình trong số là Geoffrey Hinton – một trong những vị "cha đẻ" của AI – đã từ chức ở Google để cảnh báo công chúng về sự nguy hiểm của AGI.
Trên thực tế, sự phát triển của AI phụ thuộc vào các chính phủ cũng như nhà phát triển, và nằm ngoài tầm kiểm soát của công chúng.
Vào ngày 19/12/2023, Liên minh châu Âu (EU) đã ban hành đạo luật AI đầu tiên, trong đó quy định chặt chẽ về việc công khai bản quyền các dữ liệu sử dụng để đào tạo AI, đồng thời xếp loại AI trong từng lĩnh vực như ô tô, y tế, giáo dục, luật… vào diện rủi ro cao và phải được thẩm tra trước khi đưa ra thị trường. Dù vẫn còn nhiều điểm cần hoàn thiện và bổ sung, đạo luật này chắc chắn sẽ thay đổi cách làm việc của các công ty phát triển AI, tạo ra sự minh bạch và an toàn hơn cho người dùng trong tương lai (17).
Về phía các nhà phát triển AI, Giáo sư Yann LeCun (hiện đang làm việc tại Meta) cho rằng các công ty AI nên công khai thông tin về mô hình của mình để giúp người dùng hiểu rõ, nhằm lựa chọn cũng như sử dụng AI một cách an toàn và hiệu quả hơn (18). Trước những lo ngại về AGI, các nhà phát triển AI cần hết sức cẩn trọng khi đào tạo loại "siêu trí tuệ nhân tạo" này, cũng như cần có các chương trình để kiểm soát chúng. Bên cạnh đó, còn một giải pháp khác là họ cần thận trọng khi duyệt dữ liệu đầu vào, nhằm bảo đảm rằng AGI không thực hiện các hành động tự hủy hoại hoặc chống lại loài người.
Ở cấp độ cá nhân, chúng ta cần học cách "chung sống hòa bình" với AI. Bạn đọc có thể thử áp dụng một số gợi ý sau:
Nhìn chung, dựa vào những nhận định của Noam Chomsky, có thể thấy rằng tương lai của AI vẫn là điều khó dự đoán trước. Tuy nhiên, ở hiện tại, AI chỉ đơn thuần là một công cụ hữu ích nhưng vẫn mang nhiều khuyết điểm cần cải thiện. Việc hiểu rõ những hạn chế và thế mạnh của AI sẽ giúp người dùng không còn "tôn thờ" hoặc lo lắng quá mức về chúng, mà thay vào đó, biến chúng thành công cụ đắc lực cho sự phát triển của bản thân.
Bạn thấy bài viết thú vị và muốn đọc thêm về Sự Nghiệp?