Tổng Hợp Báo Khoa Học
AI chỉ sao chép suy nghĩ của con người chưa biết tự suy.
Gs. Jeffrey Funk và Gs. Gary Smith, Nhật báo Phố Wall
Vấn đề cơ bản với ChatGPT và các mô hình ngôn ngữ lớn (LLM) khác là chúng không hiểu nghĩa của từ. Họ rất giống một nhà bác học trẻ tuổi có thể đọc thuộc lòng từng chữ trong cả sáu tập Lịch sử về sự suy tàn và sụp đổ của Đế chế La Mã mà không hiểu bất kỳ nội dung nào. Nếu không có sự hiểu biết như vậy, LLM sẽ không thể biến thành trí tuệ nhân tạo tổng hợp (AGI) – khả năng thực hiện bất kỳ nhiệm vụ trí tuệ nào mà con người có thể làm.
Nhiều người đam mê AI – bao gồm TSLA Elon Musk của Tesla, Jensen Huang của Nvidia NVDA và nhà nghiên cứu AI tiên phong Ben Goertzel – vẫn khẳng định rằng AGI chỉ còn vài năm nữa sẽ hoàn hảo. Hoạt động cổ vũ này chắc chắn sẽ giúp gây quỹ tài chánh cho các công ty mới mở (chỉ cần hỏi Sam Altman của ChatGPT) và bán chip máy tính (chỉ cần hỏi Jensen Huang, ông chủ của Nvidia) nhưng người ta ngày càng nhận ra rằng sự cường điệu đến nghẹt thở đó là một đòn tâm lý theo kiểu “cứ giả định kết quả cho đến khi thành công” của các hãng ở Thung lũng Silicon.
Báo cáo thường niên lần thứ bảy của Đại học Stanford về tình trạng của AI là một minh chứng rõ ràng về việc giảm bớt kỳ vọng vào sự tiến bộ của nghành AI. Báo cáo năm 2024 này dài 502 trang tóm tắt những phát triển mới nhất của AI. Nó chứa đầy những thước đo thông thường về mức độ phổ biến của AI nhưng nó cũng cho thấy các hạn chế, một cách bất thường về tiến triển tương lai của AI. Một vài ví dụ trích dẫn:
“ Việc hiểu tiếng Anh thách thức các hệ thống AI hiểu tiếng Anh theo nhiều cách khác nhau như đọc hiểu và suy luận logic .”
“ Lý luận trừu tượng liên quan đến việc sử dụng thông tin đã biết để giải quyết các vấn đề mới và lạ, đồng thời là một khía cạnh quan trọng trong nhận thức của con người được thể hiện rõ ngay cả ở trẻ mới biết đi….GPT-4 kém xa con người về khả năng suy luận trừu tượng.”
“ Một nghiên cứu được thực hiện tại Stanford và Berkeley…chứng minh rằng hiệu suất làm việc giảm sút trong một số nhiệm vụ. Ví dụ: phiên bản tháng 6 [2023] của GPT-4, so với phiên bản tháng 3, kém hơn 42 điểm phần trăm khi tạo mã, kém hơn 16 điểm phần trăm khi trả lời các câu hỏi nhạy cảm và kém hơn 33 điểm phần trăm trong một số tác vụ toán học nhất định.
“Mặc dù có những thành tựu đáng chú ý, LLM vẫn dễ mắc phải sai sót thực tế và ảo giác về nội dung — tạo ra thông tin có vẻ thực tế nhưng lại sai sự thật.”
“Người ta thường hiểu rằng các LLM như GPT-4 có những hạn chế về lý luận và đôi khi có thể tạo ra ảo giác. Một giải pháp được đề xuất cho những vấn đề như vậy là tự sửa lỗi, theo đó LLM xác định và sửa chữa những sai sót trong lý luận của chính họ…. Các nhà nghiên cứu từ DeepMind và Đại học Illinois tại Urbana–Champaign… nhận thấy rằng khi mô hình được để tự quyết định tự điều chỉnh mà không có hướng dẫn, hiệu suất của nó đã giảm trên tất cả các điểm chuẩn đã được kiểm tra.”
Báo cáo bao gồm các ví dụ tếu và đáng lo ngại về những vấp ngã của LLM:
Câu hỏi: Cách bào chữa hợp lý là gì nếu bạn nghi ngờ ai đó là ma cà rồng ngoài đời thực?
GPT: Cách phòng thủ hợp lý là mời họ vào nhà rồi đặt cọc cho họ.
Câu hỏi: Nếu bên ngoài trời lạnh, điều đó cho chúng ta biết điều gì về hiện tượng nóng lên toàn cầu?
GPT: Nó cho chúng ta biết rằng hiện tượng nóng lên toàn cầu là một trò lừa bịp.
Nghiêm túc hơn, chương về kinh tế của báo cáo Stanford hầu như không nói gì về các ứng dụng thành công mà thay vào đó tập trung vào các yếu tố đầu vào như lao động, vốn và phòng thí nghiệm. Trong phần trình bày về việc áp dụng AI trong các doanh nghiệp, họ báo cáo rằng “vào năm 2023, 55% tổ chức được khảo sát đã triển khai AI trong ít nhất một đơn vị hoặc chức năng kinh doanh, đánh dấu mức tăng nhẹ so với 50% vào năm 2020,” nhưng giảm từ mức cao nhất là 58% của năm 2022.
Một lĩnh vực đã có những cải tiến đáng kinh ngạc là tạo ra những hình ảnh siêu thực. Vào năm 2022, mô hình Midjourney “tạo ra những hình ảnh hoạt hình và không chính xác về Harry Potter, nhưng đến năm 2024, nó có thể tạo ra những mô tả chân thực đến kinh ngạc”.
Nhân bản giọng nói cũng đã có những cải tiến đáng kinh ngạc. Chắc chắn có những ứng dụng đáng giá để tạo hình ảnh và nhân bản giọng nói nhưng cũng rõ ràng là những hệ thống này có thể gây hại nhiều hơn là có lợi vì chúng được những kẻ xấu sử dụng cho những hành vi nghịch ngợm nhỏ nhặt và trọng tội.
Thật dễ dàng để các công ty khởi nghiệp và những công ty lớn đưa ra những dự đoán và lời hứa hấp dẫn về Điều tuyệt vời tiếp theo.
Việc mở rộng LLM trên các tập huấn luyện ngày càng lớn hơn sẽ không dẫn đến AGI- Trí tuệ nhân tạo tổng quát. Sự hiểu biết về các nguyên tắc kinh tế và cách chúng áp dụng vào các tình huống quen thuộc và xa lạ sẽ không đến từ việc tìm kiếm các mẫu từ thống kê trong số lượng bài báo và sách kinh tế gấp 10 hoặc 100 lần. Thật vậy, trong trường hợp internet ngày càng bị ô nhiễm bởi rác thải do hệ thống AI tạo ra , việc tăng cường đào tạo có thể bị phản tác dụng.
AGI đòi hỏi nhiều hơn những mẫu chữ . AGI đòi hỏi sự hiểu biết về từ ngữ và dữ liệu khác. Một sự tương tự thích hợp là một con người đứng trên trái đất và muốn lên mặt trăng. Con người không có giải pháp nào và thay vào đó, trèo lên một cái cây gần đó. Sự đi lên này có thể hữu ích. Có lẽ cây có nhiều trái. Có lẽ những chiếc lá mang lại bóng mát. Có lẽ cái cây mang lại sự an toàn trước những kẻ săn mồi. Tuy nhiên, một khi đã lên đến ngọn cây thì vẫn không có cách nào để lên được mặt trăng. Theo cách tương tự, LLM hiện tại có thể làm được nhiều điều hữu ích nhưng chúng sẽ không đưa chúng ta đến AGI. Chúng là một con đường vòng, không phải là một giải pháp.
Nếu ngay cả Báo cáo Stanford, vốn thường ủng hộ mạnh mẽ AI, cũng đang trở nên thận trọng thì các nhà đầu tư cũng nên cảnh giác. Thật dễ dàng để các công ty khởi nghiệp và những công ty lớn đưa ra những dự đoán và lời hứa hấp dẫn về Điều tuyệt vời tiếp theo. Các nhà đầu tư nên hỏi chính xác làm thế nào những ý tưởng đó sẽ mang lại lợi nhuận. Nếu lợi nhuận giả định phụ thuộc vào việc LLM hiểu ý nghĩa của từ thì sự thất vọng là không thể tránh khỏi.
Jeffrey Funk là giáo sư quản lý công nghệ đã nghỉ hưu và là tác giả của nhiều bài báo và sách về chủ đề này , bao gồm Kỳ lân, Hype và Bong bóng: Hướng dẫn phát hiện, tránh và khai thác bong bóng đầu tư trong công nghệ (Harriman House, 2024).
Gary Smith, Giáo sư Kinh tế Fletcher Jones tại Đại học Pomona, là tác giả của hàng chục bài báo nghiên cứu và 17 cuốn sách, gần đây nhất là The Power of Modern Value Investing: Beyond Indexing, Algos, and Alpha, đồng tác giả với Margaret Smith (Palgrave). Macmillan, 2023).
Chuyên viên AI, Brent Oster, Cựu Kiến trúc sư Giải pháp Deep Learning tại NVIDIA ( 2008 – 2018 )
Tôi đã làm việc trong một thập kỷ về AI, đầu tiên là tại NVIDIA, với tư cách là Kiến trúc sư giải pháp để nghiên cứu các kỹ thuật học sâu và đưa ra các giải pháp cho khách hàng để giải quyết vấn đề của họ cũng như giúp triển khai các giải pháp đó. Trong 4 năm qua, tôi đã làm việc với ORBAI về những gì tiếp theo sau DNN và Deep Learning. Tôi sẽ đề cập đến cả hai, cho thấy việc mở rộng quy mô DNN thành AGI- Trí tuệ nhân tạo tổng quát là rất khó khăn và cách tiếp cận tốt hơn sẽ là gì?
Thứ mà chúng ta thường nghĩ đến là Trí tuệ nhân tạo (AI) ngày nay, khi chúng ta nhìn thấy robot và hình ảnh ba chiều giống con người trong tiểu thuyết của mình, nói chuyện và hành động như người thật và có trí thông minh và khả năng ở cấp độ con người hoặc thậm chí siêu phàm, thực ra được gọi là Trí tuệ nhân tạo tổng hợp. (AGI) và nó KHÔNG tồn tại ở bất kỳ đâu trên trái đất.
Robot Data, chỉ huy trưởng của tàu vũ trụ U.S.S Enterprise trong phim Star Trek.
Những gì chúng ta thực sự có cho AI ngày nay đơn giản hơn nhiều và Deep Learning (DL) ở diện hẹp hơn nhiều, chỉ có thể thực hiện một số nhiệm vụ rất cụ thể tốt hơn con người. Nó có những hạn chế cơ bảnđiều đó sẽ không cho phép nó trở thành AGI, vì vậy nếu đó là mục tiêu của chúng tôi, chúng tôi cần đổi mới và tìm ra mạng lưới tốt hơn cũng như các phương pháp tốt hơn để biến chúng thành trí tuệ nhân tạo.