Kỹ thuật số không chỉ là một tập hợp các công nghệ mà còn là một “môi trường” mà chúng ta sống trong đó. Chính vì vậy mà quân đội ở Pháp cũng như ở Mỹ nhắm đến và nhận diện 5 môi trường tương tác với nhau, với những ràng buộc riêng: không khí, đất, biển, không gian và “cyber” (không gian mạng). Môi trường này bao phủ các mối quan hệ liên cá nhân và quan hệ xã hội, các mối tương tác giữa chúng ta và Nhà Nước, mối liên hệ của chúng ta với tri thức, với sự tưởng tượng hay với nghệ thuật, và định hình lại chúng. Môi trường này xác định lại ranh giới giữa không gian riêng và không gian công cộng cũng như giữa giám sát và tự do, nó tạo nên sự tồn tại của xã hội diễn cảnh thường trực, bởi mọi người và vì mọi người, nó xâm chiếm, thậm chí thao túng trí não của chúng ta: kỹ thuật số là một vectơ thiết yếu của các dự án chính trị.
Với Internet, vectơ chính trị này trước hết đã tạo điều kiện cho việc phổ biến các ý tưởng trong một diễn đàn toàn cầu được xây dựng từ cơ sở, một cách ngẫu nhiên và thực sự không kiểm soát; diễn đàn mới này đã mở ra những không gian và những niềm hy vọng về lòng khoan dung, với đỉnh cao là các mùa xuân Ả Rập[*] và các cuộc cách mạng màu[**]. Tuy nhiên diễn đàn toàn cầu của thời kỳ đầu bị hòa tan trong rất nhiều bong bóng bộ lọc (bulle de filtres) trong đó nảy nở sự ngờ vực và khiêu khích, và diễn đàn này phải đối đầu với sự đe dọa của “quá trình chia nhỏ Internet” (“splinternet” ), hầu như đã được thực hiện tại Trung Quốc. Sự tan rã này phần lớn liên quan đến sự tiến triển của các nền tảng từ khoảng 10 năm nay, vốn đã tạo ra một sự phát triển Internet và các công nghệ kỹ thuật số rất tập trung và phân cấp rất mạnh (descendant). Một số tác nhân công nghệ dần dần áp đặt những cách sử dụng: một số đặt lại vấn đề về cơ sở của xã hội như Uber, một số khác tổ chức những thao tác để thay đổi như Cambridge Analytica[1] thông qua Facebook, hay gần đây hơn là Team Jorge thông qua tất cả các mạng xã hội, như tập thể Forbidden Stories đã tiết lộ[2]. Có thể làm điều này được nhờ tốc độ triển khai các công nghệ và sự hiện diện của chúng ở khắp nơi: những cách sử dụng đã có sẵn trước khi ta có thể hiểu chúng, trước khi ta có thể giải thích tác động của chúng đối với xã hội, nghĩa là trước khi có mọi hình thức thảo luận nghiêm túc. Các điều chỉnh đến sau một cách hậu nghiệm với nhiều khó khăn: trong lúc chờ đợi sự điều tiết các cách sử dụng gây nguy hiểm cho nền dân chủ, những can thiệp về thông tin gia tăng, những tin giả lan rộng và những cuộc bầu cử bị thao túng như Brexit hay cuộc bầu cử năm 2016 ở Mỹ.
Các thuật toán: Một thách thức chính trị
Sự cấp bách của thách thức dân chủ về kỹ thuật số được tăng cường với trí tuệ nhân tạo. Trước tiên vì hiện nay trí tuệ nhân tạo phát triển với một tốc độ vô cùng nhanh, nhanh hơn khung thời gian chính trị của chúng ta rất nhiều. Tiếp theo, vì “thuật toán” được xem (một cách sai lầm) như là một vật thể xa vời, ảo, phức tạp và bí hiểm. Thế nên từ chối hiểu vấn đề là một giải pháp dễ dãi đối với các chính khách cũng như cử tri: hơn nữa, tiếp thị công nghệ khuyến khích sự từ chối này. Từ đó, sự bí hiểm của các thuật toán được xem là đương nhiên, là điều không thể tránh được: thế nhưng sự bí hiểm luôn luôn ngăn trở nền dân chủ.
Một trong những sử dụng đại trà đầu tiên của trí tuệ nhân tạo đã diễn ra cùng với các nền tảng và nhu cầu của những nền tảng này về cá thể hóa tối đa những nội dung để tạo ra “sự cam kết” và tiết lộ về những người dùng các nền tảng như những mục tiêu quảng cáo có sẵn và có chất lượng. Để “cá thể hóa tối đa”, mỗi nền tảng sẽ khai triển những thuật toán trí tuệ nhân tạo có khả năng biết chúng ta là ai, phân tích và lưu trữ những đặc điểm tâm lý của mỗi người với hàng trăm biến số, bao gồm những thói quen xã hội, những đặc điểm về tiêu thụ, cũng như những xu hướng tình dục hay chính trị: như vậy trong vòng 230 dấu “thích” (“like”), Facebook đã hiểu rõ những đặc điểm tâm lý của bạn hơn cả người hôn phối của bạn[3]… Khi quảng cáo được gửi đi là một “tin giả” là ta đi vào lĩnh vực của sự thao túng, thu nhập từ quảng cáo giúp tài trợ những tổ chức đưa thông tin sai lệch mang tính bè phái hoặc gây rối[4]. Khi cơ chế xây dựng hồ sơ tâm lý được sử dụng để cho điểm về mặt xã hội, ta đi vào lĩnh vực giám sát đại trà và cuối cùng là chủ nghĩa toàn trị[5].
Ở đây có những diễn biến chính trị cần được cảnh giác. Việc sử dụng “cool” vuốt ve tính độc nhất của nhân cách của mỗi người, và cần thiết để vận hành những thuật toán nhắm đến mục tiêu được cá thể hóa và cuối cùng là tùy thuộc vào sự giám sát đại trà: như các phiếu lý lịch của KGB (Ủy ban An ninh Quốc gia của Liên Xô) hay của Stasi (Bộ An ninh Quốc gia của Cộng hòa Dân chủ Đức trước đây) trong thế kỷ XX, nhưng được thực hiện khéo hơn, hoàn chỉnh hơn, đối với mọi người và không biên giới. Diễn biến này bắt nguồn từ một sự lai tạo những trò chơi, cái “tôi” và giám sát vốn được đoán ra rất đúng trên Tik Tok, và sự sống còn của những người điều hành Tik Tok tùy thuộc vào lòng trung thành của họ với chế độ, như vậy có nghĩa là tùy vào sự đóng góp của họ cho những tham vọng giám sát toàn diện. Đó là sự lệch hướng thiên về “chủ nghĩa tư bản giám sát” được mô tả bởi Shoshana Zuboff[6]. Sự phục tùng của chúng ta đối với sự giám sát đại trà không chỉ có ở Paris: sự phục tùng này còn diễn ra ở Bắc Kinh và rất phổ biến trong sự bất lực của chúng ta khi cho cài đặt thiết bị giám sát trong điện thoại của con cái chúng ta.
Đạo đức và trí tuệ nhân tạo: Những người gây men
Đầu tàu của trí tuệ nhân tạo hiện nay, Sam Altman, người sáng lập OpenAI và là tác giả của ChatGPT, tự nhủ rằng “hơi lo sợ”[7] trước viễn cảnh biến đổi xã hội do trí tuệ nhân tạo mở ra.
Một đồng sáng lập viên khác của OpenIA, Ilya Sutskever, cũng có cùng cách giải thích lý do tại sao những mô hình xã hội của trí tuệ nhân tạo, lúc đầu được thiết kế để tham gia vào một khoa học mở và có tính hợp tác, từ nay lại đóng và trở nên bí hiểm[8]: một trí tuệ nhân tạo tạo sinh như GPT-4 có quá nhiều sức mạnh, quá nhiều lệch hướng có thể xảy ra, quá nhiều cách sử dụng tiềm ẩn nguy hiểm, vì bất kỳ ai cũng truy cập được. Thật vậy, một công nghệ vốn hứa hẹn biến đổi một cách triệt để công việc của phần lớn những người làm văn phòng, cũng như nghiên cứu về dược phẩm, nếu không đáng để hoảng sợ thì ít nhất cũng đáng để được chú ý và hiểu cặn kẽ… Nhưng như vậy thì ai phải làm chủ công nghệ này và bảo đảm việc quản trị nó để tài sản chung được bảo đảm?
Qua nhiều ví dụ, nhà toán học nữ Cathy O’Neil đã nêu rõ trí tuệ nhân tạo không thông minh cũng không khách quan[9]: nó chuyển tải các thiên kiến, gọi là “thiên kiến thuật toán”, với những hậu quả quan trọng về việc sử dụng nó, bất kể là trong một bối cảnh pháp lý, việc cho điểm số của các giáo sư, phòng ngừa tội phạm hay cấp vốn vay hoặc bảo hiểm. Những thiên kiến này không chỉ là một vấn đề dữ liệu huấn luyện như người ta thường nghe nói quá nhiều, nhưng còn là, và nhất là một hậu quả của các quy tắc được các lập trình viên viết ra để xác định sự vận hành của mỗi thuật toán của trí tuệ nhân tạo. Qua công việc của họ, các lập trình viên của một trí tuệ nhân tạo áp đặt các thiên kiến của họ về nhận thức, ý hệ hay chính trị: đó là bình thường và không thể tránh được. Ví dụ, thiên kiến này của các lập trình viên được thấy rõ khi Baidu (hay Bách Độ, công ty dịch vụ tìm kiếm dữ liệu trên mạng lớn nhất Trung Quốc – ND) triển khai trí tuệ nhân tạo hội thoại tích hợp kiểm duyệt trong các quy tắc của nó và gạt bỏ việc đề cập đến mọi chủ đề về chính trị của Trung Quốc hay của Mỹ[10]: đó không phải là vấn đề về dữ liệu mà về những ràng buộc do các lập trình viên của Baidu đặt ra. Như vậy, nhân cách và đạo đức của nhóm người lập trình hay thiết kế trí tuệ nhân tạo là một vấn đề cốt lõi.
Để xem xét thứ đạo đức này, ta có thể quan sát phía cuối của thuật toán, kết quả của nó, nhưng ta cũng có thể quan sát phía khởi đầu, phương pháp thiết lập việc học của nó. Như vậy mặc dù với số tiền đầu tư 1,5 tỷ đô la, OpenAI vẫn dựa vào công việc của những người được trả thù lao dưới ngưỡng nghèo ở Kenya để huấn luyện ChatGPT trong 2 năm[11]. Mỗi người lãnh đạo của OpenAI đều thề rằng họ không biết, rằng điều đó đã diễn ra “mà họ không được biết và trái với ý muốn của họ”. Nihil novi sub sole – không có gì mới dưới ánh mặt trời – không có gì là sáng tạo ở đây cả: người ta cũng bóc lột trong im lặng những bé gái trong những nhà máy dệt ở Bangladesh hay ở Népal, hay bóc lột người Duy Ngô Nhĩ để sản xuất áo quần cho những nhãn hàng thời trang sang trọng và phù du (“fast fashion”). Tuy nhiên, trong tất cả các ngành công nghiệp, những vấn đề đạo đức nổi lên dưới hình thức những thách thức về trách nhiệm xã hội của doanh nghiệp (RSE – responsabilité sociétale d’entreprises) và về tính bền vững: trong khi các nhóm về tính bền vững phát triển rất mạnh, đi vào các sàn giao dịch Comex (Commodity Eexchange Inc.) và đưa vấn đề đạo đức vào báo cáo những lĩnh vực ngoài tài chính, thì tại Microsoft, công ty này đã đầu tư ồ ạt (10 tỷ đô la) vào ChatGPT[12], lại có chuyển động ngược lại: hủy bỏ nhóm “đạo đức” vốn dĩ làm việc về những tác động của trí tuệ nhân tạo[13]. Rõ ràng chủ đề về đạo đức là một trở ngại hơn là một ưu tiên… cũng như với Meta hay một phần của Google trước đây. Ở đó người ta gặp lại những hành vi đã bị Frances Haugen tố cáo hai năm trước[14]: suy nghĩ về đạo đức được xem như một trở ngại, một ràng buộc vô ích; nếu đạo đức chú ý xem xét một cách gay gắt sự đổi mới, nếu đạo đức đe dọa gây trở ngại cho công việc kinh doanh, thì chỉ cần bỏ đạo đức đi.
Không có gì chống lại đêm tối
Nơi một nhúm những người lãnh đạo kỹ thuật số có một sự tách đôi giữa “đổi mới sáng tạo” và “tiến bộ”, với một cách tiếp cận đổi mới công nghệ thích nghi với những cách thực hành lạc hậu, những tệ hại của một tầm nhìn về xã hội ở đó tất cả đều được cho phép, kể cả sự bóc lột. Khẳng định về một xã hội như thế không phải là kết quả tất yếu của những định luật về kinh tế hay về đổi mới: đó chỉ là một sự bình thường hóa sự săn mồi và sự bóc lột. Tất cả những điều đó được thực hiện nhân danh tự do với quan điểm dân chủ là kẻ thù của tự do, theo quan điểm của Peter Thiel, trung tâm của thiên hà “tự do cá nhân” (“libertarien”), mà bám quanh là Elon Musk, Sam Altman, Alex Karp, Mark Zuckerberg, Reid Hoffman, Eric Schmidt, và không quên phe cực hữu theo Trump ở Mỹ mà ông ta [Peter Thiel][15] tài trợ. Tất cả những người này đem đến những sử dụng công nghệ mà chúng ta thán phục vì chúng biến đổi xã hội một cách sâu sắc, và chúng ta không tự vấn nhiều về bản chất của những biến đổi mà những người này phát huy.
“Code is law” – “Mã là luật” – nhà luật học Lawrence Lessig của Đại học Harvard[16] đã báo động năm 2006: công nghệ tạo ra cách sử dụng và cách sử dụng tạo ra luật, và điều đó tạo ra một nguy cơ chuyển giao việc xây dựng những quy tắc của xã hội từ những đại biểu được bầu, được chọn hoặc được chỉ định qua những người làm ra hoặc tài trợ công nghệ, nghĩa là qua một dạng chủ nghĩa chuyên chế, qua một chế độ “kỹ trị” theo sát nghĩa của thuật ngữ này. Cuộc bỏ phiếu mới đây về luật triển khai trí tuệ nhân tạo giám sát (gọi là “video thuật toán giám sát ”) trong không gian công cộng của Paris năm 2024 là một báo hiệu. Một cuộc bầu cử không có thảo luận công cộng, không một nghiên cứu tác động, không một nghiên cứu có sức thuyết phục về hiệu quả, mà thách thức đạo đức không được đưa ra ở nơi công cộng, như thể là một sự lựa chọn về công nghệ, chứ không phải là một sự lựa chọn căn bản về xã hội. Thế nhưng, nếu chúng ta từ chối thảo luận về vị trí và cách sử dụng công nghệ, thì chúng ta từ chối quyết định tương lai của chúng ta và những quy tắc của nó, và giao cho một vài nhà công nghệ, một vài nhà tài chính quyết định, tất cả điều này cho thấy họ sẵn sàng thấy rõ săn mồi như là một phương tiện. Tổ chức một sự phân định dân chủ về vị trí của kỹ thuật số trong xã hội không những là cần thiết, mà còn là khả dĩ: chúng ta thường làm điều đó với những đổi mới sáng tạo khác như hạt nhân, dược phẩm hay nhân bản vô tính. Đơn giản là không nên để xảy ra sự từ bỏ về chính trị, tập thể chúng ta cần chiếm lĩnh lấy đối tượng căn bản này của cuộc thảo luận.
Bài báo này được công bố lần đầu tiên ngày 24 tháng 4, 2023.
Từ khóa: thuật toán – trí tuệ nhân tạo – giám sát – dân chủ – chính trị
Matthieu Hug
Thái Thị Ngọc Dư dịch
Nguồn: “Intelligence artificielle: cet obscure objet du débat”, The Conversation, 24.8.2023