Trí tuệ nhân tạo là gì? Nó khác với con người như thế nào? Liệu có khả năng kết bạn với cỗ máy thông minh? Công nghệ thần kinh hứa hẹn những cơ hội và nguy hiểm gì cho chúng ta?
Giáo sư Viện Hàn lâm Khoa học Nga Konstantin Vorontsov, Trưởng Khoa Học máy và Nhân văn Kỹ thuật số tại Viện Vật lý và Công nghệ Matxcơva, Trưởng Khoa Phương pháp Dự báo Toán học và Trưởng Phòng Thí nghiệm Học máy và Phân tích Ngữ nghĩa tại Viện Trí tuệ nhân tạo thuộc Đại học Tổng hợp Quốc gia Matxcơva, trả lời các câu hỏi này.
Viện Trí tuệ nhân tạo thuộc Đại học Tổng hợp Quốc gia Matxcơva, trả lời các câu hỏi này.
Sputnik: Trí tuệ nhân tạo là gì? Có rất nhiều định nghĩa và cách hiểu thuật ngữ này.
Giáo sư Viện Hàn lâm Khoa học Nga (RAS) Konstantin Vorontsov: Các chuyên gia hiểu điều này không hoàn toàn giống như cách các nhà văn khoa học viễn tưởng hay những người có tầm ảnh hưởng trên mạng xã hội. Vào mùa hè năm 1956, các nhà khoa học tham gia một cuộc hội thảo kéo dài hai tháng tại Dartmouth đã đưa ra khái niệm “Trí tuệ nhân tạo” (AI) để mô tả ngành khoa học kỹ thuật tạo ra máy móc thông minh có thể bắt chước hành vi của con người. Một nhiệm vụ chung đã được đặt ra: với sự trợ giúp của công nghệ máy tính giải quyết các vấn đề trí tuệ phức tạp mà cho đến nay chỉ có con người mới có thể giải quyết được. Nói một cách đơn giản là làm cho các chương trình trở nên thông minh hơn. Tất cả các giải pháp phù hợp để đạt được mục tiêu này đều được gọi là “trí tuệ nhân tạo”.
Nghĩa là, ngay từ đầu cho đến nay, đây là một thuật ngữ chung biểu thị một tập hợp công nghệ được xác định một cách mơ hồ. Ngay sau khi xuất hiện một công nghệ mới có khả năng giải quyết một số vấn đề phức tạp, theo thỏa thuận chung, nó được phân loại hoặc không được phân loại là trí tuệ nhân tạo. Nói cách khác, việc phân loại AI chỉ phụ thuộc vào sự đồng thuận trong cộng đồng khoa học.
Thậm chí còn có cái gọi là “hiệu ứng AI”. Giả sử một nhiệm vụ trí tuệ khó khăn được đặt ra. Ví dụ: dạy máy tính chơi cờ đam hoặc tự động hóa các quyết định quản lý, chẳng hạn như trong chẩn đoán y tế, thăm dò địa chất hoặc chấm điểm tín dụng. Mỗi khi vấn đề được giải quyết và công nghệ trở nên rõ ràng, trong cộng đồng khoa học lại diễn ra cuộc tranh luận: “Chà, đây là loại trí thông minh gì vậy?! Lại chỉ là tính toán thôi”.
Sputnik: Nhưng, đối với ông, thuật ngữ này có ý nghĩa gì?
Giáo sư RAS Konstantin Vorontsov: Trong cộng đồng khoa học, thuật ngữ “trí tuệ nhân tạo” luôn biểu thị một hướng nghiên cứu và một mục tiêu dài hạn chứ không phải là một kết quả đạt được. Đây đúng hơn là một giấc mơ hay một ẩn dụ gắn liền với mong muốn tiềm ẩn trở nên giống Chúa bằng cách tạo ra trí thông minh máy móc có hình ảnh giống con người. Hiện tại điều đó vẫn chỉ là một giấc mơ. Cho đến nay, chưa có gì tổng thể được tạo ra mà chúng ta có thể gọi là trí tuệ nhân tạo. Đây chỉ là một tập hợp các công nghệ và công cụ khác nhau để giải quyết những vấn đề khác nhau về dự đoán và tự động hóa việc ra quyết định.
Sputnik: Tại sao đây không phải là trí thông minh? Điều gì trong những công nghệ này không tương ứng với trí thông minh của con người?
Giáo sư RAS Konstantin Vorontsov: Máy tính từ lâu có thể tính toán và ghi nhớ nhanh hơn và đáng tin cậy hơn nhiều so với con người. Nhưng chúng ta từ chối gọi nó là trí thông minh. Những tiến bộ lớn trong thập kỷ qua về công nghệ điện toán, thuật toán đào tạo mạng lưới thần kinh và tích lũy dữ liệu lớn đã cho phép chúng ta giải quyết những vấn đề phức tạp: xử lý và nhận dạng hình ảnh, giọng nói, ngôn ngữ tự nhiên. Chúng tôi gọi đây là trí tuệ nhân tạo “có chức năng”, AI hẹp hoặc AI yếu. Mỗi mô hình như vậy chỉ có khả năng giải quyết một vấn đề – vấn đề mà các nhà phát triển đã dạy nó. Đây chỉ là cái tên, không phải trí tuệ.
Ngày nay có sự đột phá trong lĩnh vực mô hình ngôn ngữ lớn, ChatGPT đã xuất hiện. Bước đột phá này mang tính cách mạng đến mức vào cuối tháng 3, các nhà phát triển phiên bản mới nhất GPT-4 đã lần đầu tiên công bố “những dấu hiệu về trí tuệ nhân tạo tổng quát (AGI)”. Mô hình được đào tạo trên hàng terabyte văn bản đã có được những khả năng không được dạy cho nó, và đó là nhiều khả năng không tầm thường và bất ngờ. Tuy nhiên, kích thước của mô hình này và số lượng tham số của nó vẫn nhỏ hơn thể tích của bộ não con người vài bậc độ lớn. Mô hình này chưa phải là trí thông minh, mặc dù nó đã gần kề rồi. Và ngày càng nhiều người trong cộng đồng khoa học cho rằng, trí tuệ nhân tạo mạng lưới thần kinh có cơ sở và tính chất hoàn toàn khác và không thể so sánh với trí thông minh sinh học.
Sputnik: Nhưng đây không phải là bước đột phá đầu tiên trong lĩnh vực này?
Giáo sư RAS Konstantin Vorontsov: Đúng vậy, những đột phá trong lĩnh vực AI đã từng xảy ra trước đây. Bước đột phá trước đó xảy ra vào năm 2012 trong lĩnh vực thị giác máy tính. Khi đó, các nhà nghiên cứu đã phát triển một mạng thần kinh tích có thể nhận dạng các vật thể trong ảnh. Trong mấy thập kỷ trước đó, thị giác máy tính đã phát triển khá chậm, độ chính xác của nhận dạng đã được cải thiện một phần trăm mỗi năm nhờ nỗ lực của nhiều nhóm khoa học cạnh tranh với nhau trên khắp thế giới. Và đột nhiên – độ chính xác tăng thêm gần 10%.
Sputnik: Trong một cuộc phỏng vấn, ông đã cho biết rằng những cỗ máy “thông minh” hiện tại bắt đầu vượt khỏi tầm kiểm soát của chúng ta và hoạt động theo cách riêng của chúng. Ông có thấy mối nguy hiểm nào đó ở đây không?
Giáo sư RAS Konstantin Vorontsov: Mọi người đều nhìn thấy mối nguy hiểm này. Đã có nhiều bài viết về vấn đề này và hàng nghìn nghiên cứu đang được tiến hành trên khắp thế giới. Ở đây nói về sự đột phá trong lĩnh vực mô hình ngôn ngữ lớn (LLM). Mạng lưới thần kinh được đào tạo trên hàng terabyte văn bản đã tiếp thu gần như toàn bộ kiến thức mà nhân loại tích lũy được, bao gồm cả lượng dữ liệu khổng lồ trên Internet. Nó có thể trả lời các câu hỏi, tóm tắt ngắn gọn, xây dựng kế hoạch thuyết trình, sửa lỗi sai của mình với một chút trợ giúp, dịch từ ngôn ngữ này sang ngôn ngữ khác và giải quyết các vấn đề logic đơn giản. Hơn nữa, mô hình này tự mình học được hầu hết các kỹ năng này. Không có mẫu đào tạo cho từng kỹ năng. Điều chính là chúng tôi không hiểu quá trình đó xảy ra như thế nào. Chúng ta thường nói về quy luật chuyển hóa từ những sự thay đổi về lượng thành những sự thay đổi về chất, nhưng, cách giải thích mang tính triết học như vậy không bù đắp được sự hiểu lầm và nhầm lẫn của chúng ta.
Yếu tố nguy hiểm là mô hình có khả năng tạo ra văn bản đầy đủ ý nghĩa có thể đánh lừa chúng ta. Đối với chúng ta, có vẻ như chatbot có khả năng thấu hiểu, phân tích, đưa ra quyết định, nó có tính cách và cá tính riêng. Nhưng, điều đó là sai sự thật. Đây chỉ là những biến dạng về nhận thức mà chúng ta vẫn chưa thể khắc phục được khi thấy mình đang ở trong thế giới của những cỗ máy biết nói. Chatbot có thể đưa ra quyết định, nhưng chỉ về việc tạo ra cụm từ tiếp theo. Nó không biết suy nghĩ. Các động từ chỉ hành động tích cực không áp dụng được cho nó: suy nghĩ, quyết định, hành động, khuyên nhủ, gây áp lực tâm lý, thao túng. Lối nói tu từ này chỉ củng cố quan niệm sai lầm của chúng ta mà thôi. Chúng ta cần phải học cách từ bỏ lối nói như vậy. Và thậm chí từ bỏ cách nghĩ như vậy.
Sputnik: Chúng ta nên đối xử với chatbot như thế nào?
Giáo sư RAS Konstantin Vorontsov: Chatbot không gì khác hơn là một giao diện, một vật trung gian giữa con người và tri thức của nhân loại. Đây là một giao diện mới, tiện lợi hơn so với các công cụ tìm kiếm mà tất cả chúng ta đã quen thuộc trong hai thập kỷ qua, nó có khả năng chuyển đổi kết quả tìm kiếm thành văn bản, nhưng hoàn toàn vô tri, bất kể chúng ta nghĩ gì.
Các mô hình thống kê về việc tạo văn bản đã được biết đến từ những năm 1950. Các nhà toán học và ngôn ngữ học đã thử nghiệm chúng khá nhiều và phát hiện ra rằng, để tạo ra từ tiếp theo có thể hiểu được, chỉ cần biết ngữ cảnh tương đối nhỏ của nó, một vài từ trước nó là đủ. Nếu bạn chỉ biết hai hoặc ba từ, văn bản được tạo ra trở nên vô nghĩa, hoặc thậm chí buồn cười. Nếu bạn biết mấy chục từ, văn bản sẽ được coi là một câu chuyện lộn xộn không có cốt truyện cụ thể.
Các mô hình mạng lưới thần kinh phức tạp hơn nhiều so với các mô hình thống kê; chúng tính đến các mối quan hệ rất tinh tế giữa các từ. Hơn nữa, quy mô của ngữ cảnh là rất lớn. Bốn năm trước, mô hình tốt nhất đã xử lý một trang rưỡi ngữ cảnh để tạo ra mỗi từ. Các mô hình mới nhất sử dụng ngữ cảnh 50 trang. Tức là, đặc điểm kích thước của các mô hình này đang phát triển với tốc độ đáng kinh ngạc. Thâm chí nhanh hơn định luật Moore nổi tiếng (số lượng bóng bán dẫn trên một vi mạch sẽ tăng gấp đôi sau mỗi hai năm, dẫn đến sức mạnh tính toán tăng theo cấp số nhân).
Sputnik: Theo tôi hiểu, về nguyên tắc, ông không nhìn thấy nguy cơ mất kiểm soát? Chúng ta không nên sợ mối nguy hại tiềm tàng từ AI?
Giáo sư RAS Konstantin Vorontsov: AI chưa phải là mối đe dọa. Có những câu chuyện riêng lẻ về cách một chatbot lừa đảo một người dùng, buộc người này phải vượt qua hình ảnh xác thực thay vì chính nó. Hoặc chatbot đã cung cấp cho luật sư thông tin về những trường hợp tương tự nhưng thực tế không tồn tại. Và ở đây tôi thấy mình cũng đang áp dụng các động từ chủ động khi nói về chatbot. Nhưng, đó là điều không đúng! Kẻ lừa đảo đã sử dụng chatbot để đánh lừa người dùng. Và luật sư không kiểm tra lại dữ liệu, mặc dù lẽ ra anh ta phải biết ChatGPT có thể “gây ảo giác” và về nguyên tắc, không thể sử dụng nó làm nguồn tài liệu cho tòa án. Ít nhất là không thể sử dụng phiên bản này ở giai đoạn phát triển hiện nay.
Mối nguy hiểm chính là chúng ta vẫn cho rằng, chatbot có tính chủ quan, tức là vô tình hoặc cố ý chuyển trách nhiệm của mình cho nó. Về nguyên tắc, cỗ máy không thể chịu trách nhiệm. Cỗ máy không có tư cách chủ thể. Chatbots vốn đã nguy hiểm vì chúng đã học cách truyền cảm hứng về sự tin tưởng, thao túng mọi người và nói dối một cách chính đáng.
Sputnik: Làm thế nào chúng học được điều này nếu chúng không được dạy điều này?
Giáo sư RAS Konstantin Vorontsov: Không hẳn như vậy. Có rất nhiều ví dụ về thao tác trong giao tiếp giữa các cá nhân trên Internet; mạng lưới thần kinh đã được đào tạo bằng cách sử dụng dữ liệu đó. Khả năng tạo ra thông tin sai lệch hoặc tin tức giả từ cùng một nguồn – trong quá trình đào tạo, mạng lưới thần kinh đã thấy hàng triệu ví dụ về điều này. Khi tạo ra văn bản, các sự kiện có thể bị bóp méo và trộn lẫn theo những cách rất kỳ quái.
Khi tính năng này lần đầu tiên được phát hiện, các nhà phát triển công cụ tìm kiếm Google lo ngại rằng, mạng lưới như vậy có thể được sử dụng để tạo ra “một đại dương dối trá”, trong đó một giọt sự thật cuối cùng sẽ bị mất đi. Phiên bản mới nhất GPT-4 thậm chí còn ấn tượng hơn với nhiều kỹ năng khác nhau không được dạy cho nó.
Sputnik: Thế thì nó đã được dạy những gì?
Giáo sư RAS Konstantin Vorontsov: Mô hình này được dạy chỉ để dự đoán các từ dựa trên ngữ cảnh. Hàng Terabyte văn bản bằng nhiều ngôn ngữ được dùng làm dữ liệu huấn luyện. Sau đó, mô hình này đã được dạy thêm cách nói chuyện với con người. Con người đánh giá các câu trả lời của mô hình, đưa ra những câu hỏi bổ xung và gợi ý. Những cuộc trò chuyện này chiếm không quá 1% tập dữ liệu chính. Tuy nhiên, các trò chuyện như vậy đã tăng cường đáng kể khả năng của mô hình. Và xét theo mọi việc, chính lúc này số lượng đã chuyển thành chất lượng. Mô hình này đã học cách suy luận logic, làm rõ câu trả lời khi được hỏi cũng như thừa nhận và sửa chữa lỗi lầm của mình. Và phiên bản mới nhất, cũng được đào tạo về hình ảnh, có thể hiểu ý nghĩa của hình ảnh, kết nối nó với ngữ cảnh. Vào thời điểm này bắt đầu xảy ra điều kỳ diệu: các nhà phát triển cho mô hình xem bức ảnh với một đòn bẩy, một vật nặng được treo ở một đầu, một vật gì đó được treo ở đầu kia, họ hỏi nó: điều gì sẽ xảy ra nếu sức nặng này được thả ra? Và mô hình mô tả những gì sẽ xảy ra trong thí nghiệm vật lý này. Mặc dù không ai dạy nó giải thích các thí nghiệm vật lý, đặc biệt là theo một bức ảnh.
Sputnik: Mô hình đã lấy kiến thức này ở đâu?
Giáo sư RAS Konstantin Vorontsov: Điều đó vẫn chưa rõ. Thật khó để gọi đây là “kiến thức”. Có vẻ như những khả năng này phát sinh do một mạng lưới khổng lồ, mô hình đã quan sát hầu hết mọi thứ có thể tìm thấy trong ngôn ngữ của con người, đã học được các cấu trúc tu từ và diễn ngôn điển hình của ngôn ngữ, cũng như các cách điển hình để điền từ vựng vào chúng. Khối lượng hiện thực được mô tả bằng ngôn ngữ là rất lớn. Và mạng lưới cũng rất lớn. Đây là trường hợp khi kích thước là một yếu tố rất quan trọng.
Sputnik: Việc tăng thêm kích thước có thể khiến chúng ta mất kiểm soát? Mạng lưới thần kinh có thể tiến xa đến đâu, và tiềm năng cũng như hiểm họa của nó đến mức nào?
Giáo sư RAS Konstantin Vorontsov: Sẽ đúng hơn nếu đặt câu hỏi: vào thời điểm nào và vì mục đích gì mà chúng ta sẽ mất kiểm soát khi tự nguyện giao nó cho các thuật toán? Đây thực sự là một quá trình không thể kiểm soát được hay chúng ta vẫn có thể làm chủ tình thế? Tất nhiên, chúng tôi chắc chắn sẽ tiếp tục tăng lượng dữ liệu và rất có thể mạng lưới thần kinh sẽ học được nhiều kỹ năng mới.
Sau đây là một ví dụ khác: phiên bản GPT-4 đã thể hiện khả năng sửa lỗi của chính nó. Họ bảo nó: hãy giải bài toán này. Nó làm toán sai. Sau đó, nó được gợi ý: “Hãy thực hiện theo hai bước”. Và nó tạo ra giải pháp chính xác. Trong một ví dụ khác, người ra đưa ra gợi ý khác: “Chia giải pháp thành các bước”. Và nó đã làm những gì cần thiết. Đối với chúng ta, đây có vẻ như là sự khởi đầu của quá trình tự suy ngẫm, bởi vì kinh nghiệm trước đây của chúng ta không chờ đợi hành vi như vậy từ bất kỳ ai khác ngoài con người. Nhưng chúng tôi biết chắc chắn rằng, không thể có suy nghĩ hay lý luận nào đằng sau điều này; đây là một kỹ năng vô ý thức. Chúng tôi không biết có thêm bao nhiêu kỹ năng không lường trước được “đưa vào” mô hình. Cộng đồng khoa học hiện đang tích cực khám phá những gì nó có thể làm.