Có cách để kiểm soát công nghệ mới này – nhưng trước tiên chúng ta phải ngừng huyền thoại hóa nó.
Công nghệ nào cũng có thể gây hại
Là một nhà khoa học máy tính, tôi không thích thuật ngữ “AI” – “trí tuệ nhân tạo”. Thực ra tôi nghĩ nó gây hiểu lầm – thậm chí có phần nguy hiểm bởi chúng ta đang ở điểm khởi đầu của một kỷ nguyên công nghệ mới – và cách dễ nhất để quản lý sai một công nghệ là hiểu sai nó.
Thuật ngữ “trí tuệ nhân tạo” có một lịch sử lâu dài – nó ra đời trong thập kỷ 1950, từ thuở sơ khai của máy tính. Gần đây hơn, các nhà khoa học máy tính lớn lên cùng với những bộ phim như Kẻ hủy diệt và Ma trận, và những nhân vật như Thiếu tá Data trong Star Trek: The Next Generation. Những biểu tượng văn hóa này đã trở thành một thứ thần thoại gần như mang tính tôn giáo trong văn hóa công nghệ. Thật là lẽ tự nhiên khi các nhà khoa học máy tính mong muốn tạo ra AI và hiện thực hóa giấc mơ ấp ủ từ lâu.
Thế nhưng điều đáng kinh ngạc là nhiều người trong số những người theo đuổi giấc mơ AI cũng lo rằng nó có thể dẫn đến ngày tàn của nhân loại. Có nhiều phát biểu, thậm chí của những nhà khoa học có vai trò trung tâm trong nghiên cứu hiện nay, cho rằng cái mà các nhà nghiên cứu AI đang làm có thể sớm dẫn đến sự diệt vong của loài người, hoặc chí ít là gây thiệt hại to lớn cho nhân loại. Trong một cuộc thăm dò gần đây, một nửa các nhà nghiên cứu AI đồng tình rằng xác suất để loài người bị AI tiêu diệt là ít nhất 10 phần trăm. Cả người bạn và đồng nghiệp của tôi, Sam Altman, Giám đốc OpenAI, cũng từng nhận xét tương tự. Bước vào một quán cà phê bất kỳ ở thung lũng Silicon, bạn sẽ nghe thấy cùng một cuộc tranh luận: một người nói rằng những dòng lệnh mới chỉ đơn giản là dòng lệnh máy tính và con người vẫn nắm quyền kiểm soát, nhưng một người khác sẽ nói rằng bất kỳ ai nghĩ như vậy đều chưa hiểu được sự sâu sắc của công nghệ mới. Những cuộc tranh luận như vậy không hoàn toàn dựa trên lý lẽ: khi tôi hỏi rằng ngày tận thế AI sẽ xảy ra như thế nào, những người bạn làm khoa học sợ AI nhất của tôi thường đớ người ra, giống như sự tê liệt của một người đang cố gắng hình dung sự vô hạn. Họ nói những thứ đại loại “những tiến bộ ngày càng nhanh sẽ vượt xa chúng ta và chúng ta sẽ không thể hiểu được điều gì đang xảy ra”.
Tôi không đồng tình với cách nói này. Nhiều bạn và đồng nghiệp của tôi có ấn tượng sâu sắc khi được trải nghiệm những mô hình lớn mới nhất, như GPT-4, và thực sự cảnh giác chờ đợi sự xuất hiện của một loại trí tuệ siêu việt hơn. Quan điểm của tôi không phải là họ sai, nhưng chúng ta không thể chắc chắn điều đó xảy ra; chúng ta vẫn có thể lựa chọn xếp loại phần mềm theo nhiều cách khác.
Thái độ của tôi là với bất kể công nghệ mới nào, chúng ta vẫn có thể thiết kế và vận hành nó một cách tồi tệ, có thể gây hại, thậm chí dẫn đến sự diệt vong của loài người. Thần thoại hóa công nghệ AI chỉ càng khiến chúng ta dễ thất bại trong việc vận hành tốt nó.
Coi AI là một cách làm việc cùng nhau, thay vì là một công nghệ để tạo ra những thực thể có trí tuệ và hành xử độc lập, có thể khiến nó bớt bí ẩn – bớt giống như hal 90001 hay Thiếu tá Data. Nhưng thế là tốt, bởi bí ẩn chỉ làm tăng khả năng sai lầm trong quản lý.
Rất dễ để gọi các hệ thống mới là có trí tuệ; chúng có sự linh hoạt và khó dự đoán mà ta thường không gắn với máy tính. Nhưng sự linh hoạt này nảy sinh từ toán học đơn giản. Một mô hình ngôn ngữ lớn như GPT-4 chứa những bản ghi tích lũy về độ trùng hợp của một số từ nào đó trong lượng văn bản mênh mông mà nó đã xử lý. Bảng thông tin khổng lồ này giúp hệ thống xấp xỉ một cách bản chất nhiều mẫu ngữ pháp, cũng với những khía cạnh của phong cách tác giả. Khi bạn nhập vào một yêu cầu chứa một số từ nào đó, theo một thứ tự nào đó, mô hình tính độ tương quan giữa dữ liệu bạn nhập vào với dữ liệu của nó; kết quả mỗi lần có thể khác đi một chút, do độ phức tạp của việc tính toán độ tương quan của hàng tỷ dữ liệu.
Tính chất không lặp lại của quá trình này có thể khiến nó có vẻ sống động. Và theo một nghĩa nào đó, nó có thể khiến những hệ thống mới này có tính hỗ trợ hơn là làm thay con người. Khi tổng hợp một bức tranh mới với một công cụ AI, bạn có thể nhận được một loạt các lựa chọn từa tựa nhau và phải chọn lấy một; nếu bạn là một sinh viên sử dụng mô hình ngôn ngữ lớn để gian lận khi làm bài luận, bạn có thể đọc những đề xuất mô hình đưa ra, và chọn lấy một. Một công nghệ không đưa ra các kết quả lặp lại như vậy luôn cần đến một chút quyết định của con người.
Nhiều ứng dụng của AI mà tôi thích dựa trên lợi thế ta có được khi máy tính trở nên bớt cứng nhắc. Những sản phẩm số mà chúng ta biết có chất lượng rất lởm khởm, bắt người ta phải gò theo nó thay vì đánh giá nó. Chúng ta đều khó chịu biết bao khi thấy một con người tội nghiệp ở phòng khám phải vật lộn với màn hình lễ tân để điều khiển nó. Gương mặt nhăn nhó; nhân tính tổn thương. Nhu cầu phải thích ứng với các thiết kế số đã khiến xã hội kì vọng con người gần như phải phục tùng máy móc. Một ý tưởng tích cực về AI là nó có thể chấm dứt sự tra tấn này, nếu chúng ta dùng nó đúng cách. Chúng ta có thể tưởng tượng ra một trang web tự sắp xếp lại trong nháy mắt sao cho phù hợp với người mù màu, hay một trang tự điều chỉnh để hợp với năng lực nhận thức và phong cách đặc biệt của người đọc. Một người theo chủ nghĩa nhân đạo như tôi muốn con người có thêm quyền kiểm soát, thay vì bị ảnh hưởng quá mức hay dẫn dắt bởi công nghệ. Sự linh hoạt có thể lấy lại cho chúng ta một chút tự chủ.
Nhưng, dù có những điểm tích cực tiềm năng đó, hoàn toàn hợp lý khi lo ngại rằng công nghệ mới sẽ xô đẩy chúng ta theo những cách chúng ta không thích hoặc không hiểu nổi. Gần đây, một số người bạn của tôi lan truyền một bản kiến nghị yêu cầu tạm dừng phát triển AI tham vọng nhất. Ý tưởng của họ là ta sẽ xây dựng chính sách trong khoảng thời gian hoãn đó. Một số người trong cộng đồng chúng tôi ký vào bản kiến nghị, số khác thì không. Tôi thấy ý định đó quá mơ hồ – việc xây dựng chính sách tiến triển đến mức nào thì thời gian tạm dừng sẽ chấm dứt? Hàng tuần, tôi nhận được những tuyên bố nhiệm vụ mới, nhưng luôn chung chung, từ các tổ chức tìm cách khởi xướng các quá trình thiết lập chính sách cho AI.
Những đối thoại về chính sách AI bị thống trị bởi những từ như “phù hợp” (cái mà AI “muốn” có phù hợp với cái mà con người muốn hay không?), “an toàn” (chúng ta có thể dự kiến những hàng rào để ngăn chặn một AI xấu hay không?), và “công bằng” (chúng ta có thể ngăn chặn sớm các cách một chương trình có thể đối xử bất lợi với một số người hay không?). Cộng đồng chắc chắn đã làm được nhiều điều tốt đẹp khi theo đuổi những ý tưởng này, nhưng nó chưa đủ dập tắt nỗi sợ hãi của chúng ta. Chúng ta cuối cùng lại khuyến khích người ta tìm cách lách qua những biện pháp bảo vệ chung chung chúng ta đặt ra. Mặc dù các biện pháp bảo vệ có tác dụng, tất cả biến thành một trò chơi – như thể đấu trí với một vị thần lươn lẹo. Kết quả là cộng đồng nghiên cứu AI đưa ra cảnh báo rằng những sản phẩm của họ vẫn có thể sớm tiêu diệt toàn bộ loài người, trong khi đề xuất những quy trình ngày càng cấp bách, nhưng mang tính khoa trương và gây tranh cãi.
Các hệ thống cần minh bạch hơn
Gần đây, tôi thực hiện một thí nghiệm không chính thức, tôi gọi cho các đồng nghiệp và hỏi họ liệu có điều gì cụ thể mà tất cả chúng tôi có thể đồng ý hay không. Tôi nhận thấy có một nền tảng cho sự đồng thuận. Chúng tôi có vẻ đều đồng ý rằng “deepfake” – những hình ảnh, video, v.v. giả nhưng trông như thật – cần được những chương trình tạo ra chúng dán nhãn. Thông điệp từ những nhân vật ảo, những tương tác ảo được tạo ra để điều khiển suy nghĩ và hành động của con người cũng cần được dán nhãn. Chúng tôi đồng ý rằng cần có những hành động đối phó với các nhãn như vậy. Người ta cần được hiểu cái mình đang xem, để từ đó đưa ra những lựa chọn hợp lý.
Thực hiện điều đó như thế nào? Một điều gần như được nhất trí nữa là bản chất hộp đen của những công cụ AI hiện tại cần được chấm dứt. Các hệ thống cần minh bạch hơn. Chúng ta cần giải thích được tốt hơn điều gì đang diễn ra bên trong chúng và tại sao. Điều này sẽ không dễ dàng. Vấn đề là những hệ thống AI mô hình lớn ta đang nói đến không được tạo từ những ý tưởng tường minh. Không có một mô tả chính xác của cái mà hệ thống “muốn”, không có nhãn đánh dấu thời điểm nó đang làm một việc cụ thể, như điều khiển một ai đó. Chỉ có một biển thạch rau câu – một hỗn hợp toán học mênh mông. Một nhóm đòi quyền tác giả đã đề xuất rằng các tác giả người thật cần được trả tiền khi người ta dùng những công cụ như GPT dựa trên tác phẩm của họ để viết kịch bản; rốt cuộc, quả thật hệ thống lấy từ những kịch bản đã có, do người thật viết ra. Nhưng khi chúng ta dùng AI để tạo những đoạn phim ngắn, và có thể cả một bộ phim, sẽ không nhất thiết có giai đoạn xây dựng kịch bản. Một bộ phim có thể được tạo ra như thể có kịch bản, nhạc phim, v.v., nhưng tất cả được tạo ra cùng một lúc, trong một tổng thể chứ không riêng rẽ từng phần như người thực hiện. Tương tự, quá trình sinh ra một bức tranh bằng một chương trình vẽ AI không cần bản vẽ phác. Cố gắng mở chiếc hộp đen bằng cách bắt hệ thống tiết lộ những thứ không cần thiết như kịch bản, bản vẽ phác, hay ý định, sẽ đòi hỏi xây dựng một hộp đen khác để giải thích cái trước – một quá trình lùi vô hạn.
Đồng thời, cũng không đúng nếu cho rằng bên trong một mô hình lớn là một vùng hoang dã không có dấu vết. Chúng ta có thể không biết thế nào là một “ý tưởng” nếu xét từ góc nhìn truyền thống hay từ góc nhìn tính toán, nhưng vẫn có những dấu vết để lại không phải bởi ý tưởng mà bởi con người. Tại một thời điểm trong quá khứ, một người thật vẽ một bức tranh, bức tranh này được dùng làm dữ liệu đưa vào một mô hình, và kết hợp với những đóng góp của nhiều người khác, được biến thành một bức tranh mới. AI mô hình lớn được tạo từ con người – và cách mở hộp đen sẽ tiết lộ họ là ai.
Khái niệm này, mà tôi góp phần phát triển, thường được gọi là “phẩm giá dữ liệu”2. Nó xuất hiện, rất lâu trước sự trỗi dậy của AI mô hình lớn, như một lựa chọn thay thế cho sự dàn xếp quen thuộc trong đó người ta cung cấp dữ liệu của mình một cách miễn phí để đổi lấy dịch vụ miễn phí, chẳng hạn tìm kiếm trên internet hoặc mạng xã hội. Phẩm giá dữ liệu đôi khi còn được gọi là “lao động bằng dữ liệu” hay “nghiên cứu tập thể”3. Sự dàn xếp quen thuộc hóa ra có một mặt tối: do “hiệu ứng mạng”, một số nền tảng thống trị, loại bỏ những đối thủ nhỏ, chẳng hạn những tờ báo địa phương. Tệ hơn nữa, vì người ta coi trải nghiệm trực tuyến tức thời phải được miễn phí, mô hình kinh doanh còn lại duy nhất là tranh giành ảnh hưởng. Người dùng trải nghiệm thứ có vẻ như thiên đường cộng đồng, nhưng họ chính là mục tiêu của các thuật toán lén lút và gây nghiện, khiến cho con người ta trở nên tuyệt vọng, khó chịu và hoang tưởng.
Trong một thế giới với phẩm giá dữ liệu, những đối tượng số thường sẽ được liên kết với tác giả của chúng nếu họ muốn. Với một vài dạng ý tưởng, người ta có thể được trả tiền cho tác phẩm của mình, kể cả khi nó đã được lọc và tổ hợp lại qua các mô hình lớn, và các công ty công nghệ có thể thu phí hỗ trợ người dùng thực hiện những gì họ muốn trên nền tảng của mình dễ dàng hơn. Một số người khiếp sợ ý tưởng chủ nghĩa tư bản trực tuyến, nhưng đây sẽ là một thứ chủ nghĩa tư bản trung thực hơn. Sự dàn xếp “miễn phí” quen thuộc đã và đang là một thảm họa.
Một trong những lý do khiến cộng đồng công nghệ lo ngại AI có thể trở thành một mối đe dọa sinh tồn là nó có thể được dùng để thao túng con người, giống như những làn sóng công nghệ số trước nó. Do sức mạnh và tầm ảnh hưởng tiềm năng của những hệ thống mới này, không có gì vô lý khi lo sợ về khả năng tuyệt chủng của loài người. Vì mối đe dọa đó đã được người ta nhận diện một cách rộng rãi, sự xuất hiện của AI mô hình lớn có thể là một dịp để định dạng lại ngành công nghệ tốt hơn.
Phẩm giá dữ liệu giúp giải quyết được vấn đề?
Việc thực hiện phẩm giá dữ liệu sẽ đòi hỏi nghiên cứu về kỹ thuật và đổi mới về chính sách. Theo nghĩa đó, chủ đề này gây hứng thú cho tôi, một người làm khoa học. Mở chiếc hộp đen sẽ chỉ khiến cho các mô hình thêm thú vị. Và điều đó có thể giúp chúng ta hiểu hơn về ngôn ngữ – phát minh thực sự ấn tượng của con người, thứ mà chúng ta vẫn đang khám phá sau hàng trăm nghìn năm.
Liệu phẩm giá dữ liệu có giải quyết những lo ngại về kinh tế thường được đưa ra đối với AI? Lo ngại lớn nhất là nhân công bị mất giá trị hoặc sa thải. Trước công chúng, giới công nghệ đôi khi sẽ nói rằng trong những năm tới, những người làm việc với AI sẽ trở nên năng suất hơn và sẽ tìm thấy những loại công việc mới trong một nền kinh tế năng suất hơn. (Chẳng hạn một công nhân có thể trở thành một kỹ sư nhắc lệnh cho các chương trình AI – một người cộng tác hoặc điều khiển AI). Thế nhưng ở chốn trà dư tửu hậu, chính những người đó lại thường nói: “Không, AI sẽ xóa sổ ý tưởng cộng tác này.” Không còn thu nhập cho những người kế toán, bác sỹ chẩn đoán hình ảnh, tài xế xe tải, biên kịch, đạo diễn, hay nhạc sỹ của ngày hôm nay.
Một cách tiếp cận phẩm giá dữ liệu sẽ truy dấu những người đóng góp độc đáo và có nhiều ảnh hưởng nhất khi một mô hình lớn cho ra một sản phẩm có giá trị. Chẳng hạn, nếu bạn yêu cầu một mô hình làm “một bộ phim hoạt hình về các con tôi trong một thế giới tranh sơn dầu với những con mèo biết nói trong một chuyến phiêu lưu”, thì một số họa sỹ tranh sơn dầu, họa sỹ vẽ chân dung mèo, diễn viên lồng tiếng và nhà văn quan trọng có thể được tính toán là có vai trò thiết yếu duy nhất đối với sự hình thành nên kiệt tác mới. Họ sẽ được công nhận và khích lệ. Họ thậm chí có thể sẽ được thù lao.
Cộng đồng nghiên cứu phẩm giá dữ liệu vẫn còn non trẻ, và sau đây là câu hỏi thí dụ về một cuộc tranh luận trong đó: Phẩm giá dữ liệu nên tính chi tiết đến mức nào? Không phải mọi người đã tìm được tiếng nói chung. Hệ thống không nhất thiết phải công nhận hàng tỷ người đã có đóng góp khắp nơi cho các mô hình lớn – chẳng hạn những người bổ sung về ngữ pháp cho năng lực mô phỏng của mô hình. Ban đầu, phẩm giá dữ liệu có thể chỉ phục vụ một số ít những người đóng góp đặc biệt xuất hiện trong một tình huống nhất định. Tuy nhiên, theo thời gian, nó có thể mở rộng cho nhiều người hơn, khi những tổ chức trung gian đấu tranh cho quyền – công đoàn, hiệp hội nghề nghiệp, v.v. – bắt đầu tham gia. Trong cộng đồng phẩm giá dữ liệu, những nhóm này đôi khi được gọi là “trung gian của dữ liệu cá nhân”4 hay tổ chức tín nhiệm dữ liệu. Người ta cần sức mạnh thương lượng tập thể để giành được giá trị trong một thế giới trực tuyến – nhất là khi họ có thể lạc lối trong một mô hình AI khổng lồ. Và khi chia sẻ trách nhiệm trong một nhóm, người ta tự kiểm soát, giúp giảm nhu cầu, hay ham muốn, có chính phủ hoặc các công ty để kiểm duyệt và kiểm soát từ trên xuống. Thừa nhận bản chất con người trong các mô hình lớn có thể dẫn đến sự nở rộ của những thiết chế xã hội tích cực mới. Phẩm giá dữ liệu không chỉ dành cho nghề nghiệp cổ cồn trắng. Hãy thử nghĩ xem điều gì có thể xảy ra khi robot tỉa cây do AI điều khiển xuất hiện. Người công nhân tỉa cây có thể bị giảm lương hoặc mất việc. Nhưng cuối cùng, robot sẽ tạo ra một dạng nghệ thuật cảnh quan gián tiếp nào đó. Một số cựu công nhân, hoặc những người khác, có thể tạo ra những cách tiếp cận sáng tạo – chẳng hạn nghệ thuật tạo hình cây cảnh lập thể, cho hình ảnh khác nhau từ những góc nhìn khác nhau – được đưa vào các mô hình tỉa cây. Với phẩm giá dữ liệu, các mô hình này có thể tạo ra những nguồn thu nhập mới, được phân phối thông qua những tổ chức chung. Nghề tỉa cây có thể dần trở nên đa chức năng và hấp dẫn theo thời gian; sẽ có một cộng đồng trong giới tỉa cây vẫn có động lực để gìn giữ giá trị của mình. Mỗi lần xuất hiện một ứng dụng thành công mới của AI hoặc robot có thể mở ra một loại việc làm sáng tạo mới. Bằng những cách lớn và nhỏ, điều này có thể làm nhẹ quá trình chuyển đổi sang một nền kinh tế tích hợp các mô hình.
Nhiều người ở thung lũng Silicon coi thu nhập cơ bản vô điều kiện5 là lời giải cho những vấn đề kinh tế tạo ra bởi AI. Nhưng thu nhập cơ bản vô điều kiện có nghĩa là trợ cấp cho mọi người để bảo tồn ý tưởng AI kiểu hộp đen. Tôi cho rằng đây là một ý tưởng đáng sợ, một phần vì những nhân tố xấu sẽ muốn chiếm lấy trung tâm quyền lực trong một hệ thống phúc lợi xã hội phổ quát, như trong mọi thử nghiệm của chủ nghĩa cộng sản. Tôi nghi ngờ khả năng phẩm giá dữ liệu đủ lớn mạnh để duy trì cả xã hội, nhưng tôi không tin rằng có một nguyên lý xã hội hoặc kinh tế nào sẽ trở thành hoàn chỉnh. Bất cứ khi nào có thể, mục đích phải là chí ít thiết lập được một tầng lớp sáng tạo mới, thay vì một tầng lớp phụ thuộc mới.
Cũng có cả những lý do vụ lợi để các công ty AI đón nhận phẩm giá dữ liệu. Các mô hình chỉ tốt khi dữ liệu đầu vào tốt. Chỉ có thông qua một hệ thống như phẩm giá dữ liệu thì chúng ta mới có thể mở rộng các mô hình tới các biên giới mới. Hiện nay, yêu cầu một mô hình ngôn ngữ lớn viết một bài luận thì dễ hơn nhiều so với bảo nó sinh ra một thế giới thực-ảo tương tác, vì mới có rất ít thế giới ảo. Tại sao không giải quyết vấn đề đó bằng cách cho những người có thể tạo thêm các thế giới ảo cơ hội có thêm thu nhập và danh tiếng?
Tránh kịch bản hủy diệt
Liệu phẩm giá dữ liệu có thể giúp tránh khỏi kịch bản hủy diệt nhân loại nào không? Một mô hình lớn có thể vượt trội hơn chúng ta, hoặc làm chúng ta rối trí đến mức cả xã hội cùng nhau đi chệch đường ray; một kẻ ác đầy quyền lực có thể dùng AI để làm hại tất cả chúng ta; và một số người cũng nghĩ rằng bản thân mô hình có thể “vượt rào”, chiếm quyền kiểm soát các máy móc và vũ khí và dùng chúng chống lại chính chúng ta.
Chúng ta có thể tìm thấy tiền lệ của các kịch bản này không chỉ trong khoa học giả tưởng mà còn trong các sự cố thị trường và công nghệ bình thường. Một thí dụ là thảm họa năm 2019 liên quan đến các máy bay Boeing 737 MAX. Dòng máy bay này có một tính năng hiệu chỉnh đường bay, trong một số trường hợp mâu thuẫn với phi công, dẫn đến hai vụ tai nạn có số thương vong lớn. Vấn đề không nằm ở công nghệ đơn lẻ, mà ở cách nó được tích hợp vào chu trình bán hàng, các buổi tập huấn, giao diện người dùng và hướng dẫn sử dụng. Các phi công tưởng rằng họ làm đúng khi chống lại hệ thống trong một số tình huống, nhưng họ thực ra lại đang làm sai, và họ không có cách nào biết được điều đó. Boeing đã không truyền đạt rõ ràng cách thức hoạt động của công nghệ, gây ra sự nhầm lẫn dẫn đến thảm họa.
Mọi sản phẩm kỹ thuật – ô tô, cầu, tòa nhà – đều có thể gây tai họa cho con người, thế nhưng chúng ta đã xây dựng được một nền văn minh dựa trên kỹ thuật. Chính nhờ tăng cường và mở rộng nhận thức, trách nhiệm và sự tham gia của con người mà chúng ta có thể tạo ra các quá trình tự động hóa an toàn; ngược lại, nếu coi những phát minh của mình là những đối tượng huyền bí, chúng ta sẽ khó có thể trở thành những kỹ sư giỏi. Coi AI là một dạng cộng tác xã hội thì mang tính hành động hơn: nó cho phép chúng ta đi vào buồng động cơ, vốn được tạo nên từ con người.
Hãy cùng xem xét kịch bản tận thế ở đó AI đưa xã hội đi chệch đường ray. Một trong những cách khiến điều này có thể xảy ra là thông qua deepfake. Giả sử một kẻ ác, có thể làm việc cho một chính phủ đối lập muốn gây chiến, quyết định thổi bùng lên sự hoảng loạn hàng loạt bằng cách gửi cho chúng ta những video đầy thuyết phục về cảnh người thân của chúng ta bị tra tấn hoặc bị bắt cóc khỏi nhà. (Dữ liệu để tạo ra những video như vậy, trong nhiều trường hợp, rất dễ lấy được từ mạng xã hội hoặc các kênh khác.) Hỗn loạn sẽ xảy ra, ngay cả khi các video đó nhanh chóng được chứng minh là giả. Chúng ta có thể ngăn chặn một kịch bản như vậy bằng cách nào? Câu trả lời là hiển nhiên: thông tin số cần có bối cảnh. Mọi tập hợp bit đều cần có lịch sử. Mất bối cảnh là bạn mất kiểm soát.
Vì sao các bit không được gắn với câu chuyện về nguồn gốc của chúng? Có nhiều lý do. Thiết kế nguyên thủy của Web6 không lưu dấu vết về nguồn gốc của các bit, có thể để giúp mạng phát triển nhanh chóng một cách dễ dàng hơn. (Máy tính và băng thông đều rất hạn chế ở thuở ban đầu.) Vì sao chúng ta không bắt đầu ghi nhớ các bit đến từ đâu khi chí ít việc ước tính nguồn gốc thông tin đã trở nên khả thi? Tôi luôn cảm thấy chúng ta muốn Web trở nên bí ẩn hơn cần thiết. Dù bất cứ lý do gì, Web được tạo ra để nhớ mọi thứ trong khi quên đi bối cảnh của chúng.
Ngày nay, hầu hết mọi người mặc định coi Web, và internet xây dựng trên nó, là, do bản chất, không có bối cảnh và không có nguồn gốc [thông tin]. Chúng ta thừa nhận rằng phi bối cảnh hóa thuộc về bản chất của ý tưởng mạng máy tính. Tuy nhiên, điều đó chưa bao giờ đúng; những đề xuất đầu tiên cho kiến trúc mạng máy tính, được đưa ra bởi nhà khoa học vĩ đại Vannevar Bush năm 1945 và nhà khoa học máy tính Ted Nelson năm 1960, bảo tồn nguồn gốc. Giờ thì AI đang bộc lộ rõ cái giá phải trả khi bỏ qua cách tiếp cận này. Không biết nguồn gốc, chúng ta không có cách nào kiểm soát các AI của mình, hoặc bắt chúng công bằng hơn về mặt kinh tế. Và điều này có nguy cơ đẩy xã hội của chúng ta đến bên bờ vực.
Nếu một chatbot trở nên gia trưởng, xấu tính, kỳ cục, hoặc lừa đảo, chúng ta muốn nhận được câu trả lời như thế nào khi hỏi về nguyên nhân của hiện tượng đó? Tiết lộ những ví dụ tiền đề quan trọng mà từ đó chương trình đã học ra hành vi của nó sẽ đưa ra một cách giải thích: chúng ta sẽ biết nó học từ một tác phẩm cụ thể nào đó, chẳng hạn tác phẩm hư cấu của người hâm mộ hoặc phim truyền hình nhiều tập. Chúng ta có thể phản ứng khác đi với kết quả đầu ra đó, và điều chỉnh đầu vào của mô hình để cải thiện nó. Tại sao kiểu giải thích đó không thể luôn sẵn có? Có thể có những trường hợp không nên tiết lộ nguồn gốc, để ưu tiên quyền riêng tư – nhưng nguồn gốc thông tin sẽ thường có lợi cho cá nhân và xã hội hơn là một quyền riêng tư độc đoán.
Những thách thức kỹ thuật của phẩm giá dữ liệu là có thật và phải tạo cảm hứng cho tham vọng khoa học nghiêm túc. Những thách thức về chính sách cũng sẽ rất lớn – một dấu hiệu, có lẽ thế, chứng tỏ chúng có ý nghĩa và cụ thể. Nhưng chúng ta cần thay đổi cách suy nghĩ, và đón nhận công cuộc đổi mới khó khăn. Nếu cứ níu kéo những ý tưởng quá khứ – mà một trong số đó là say mê với khả thể một AI sống hoàn toàn độc lập với những người góp phần tạo ra nó – chúng ta có nguy cơ sử dụng những công nghệ mới của theo hướng làm thế giới tồi tệ đi. Nếu như xã hội, kinh tế, văn hóa, công nghệ, hay bất cứ lĩnh vực hoạt động nào khác là để phụng sự con người, đó chỉ có thể là vì chúng ta quyết định rằng con người đáng được hưởng một địa vị đặc biệt để được phục vụ.
Đây là lời cầu khẩn của tôi với tất cả các đồng nghiệp. Hãy nghĩ đến con người. Con người là câu trả lời cho những vấn đề của bit.
Jaron Lanier
Nguyễn Hoàng Thạch dịch: https://tiasang.com.vn/khoa-hoc-cong-nghe/ai-khong-co-that/
Nguồn: https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai ngày 20/04/2023