MỐI NGUY CỦA TRÍ TUỆ NHÂN TẠO

Lê Tấn Tài



Sự phát triển rất nhanh và vượt bậc của Trí tuệ nhân tạo (AI) đem đến nhiều ưu điểm và lợi ích cho xã hội, giúp ích con người trong nhiều lĩnh vực khác nhau, nhưng cũng mang lại nhiều nguy cơ và thách thức mà con người phải đối mặt, rủi ro của trí tuệ nhân tạo cũng là thứ mà chúng ta không thể không lường trước được.

Trong một cuộc họp với Hội đồng Khoa học và Công nghệ tại tòa Bạch Ốc ngày 4/4/2023, Tổng thống Joe Biden nhấn mạnh AI có thể giúp con người chống lại "những thách thức rất khó khăn như bệnh tật và biến đổi khí hậu". Nhưng khi phóng viên hỏi liệu AI có nguy hiểm hay không, ông cho biết điều này "còn phải chờ xem nhưng nó có thể tiềm ẩn nguy cơ". Dù vậy, Tổng thống Mỹ cho rằng các chuyên gia, nhà khoa học có trách nhiệm phải "giải quyết những rủi ro đối với xã hội, nền kinh tế và an ninh quốc gia".

Geoffrey Hinton là một trong những nhà khoa học máy tính hàng đầu thế giới, từng đoạt giải thưởng Turing và được coi là "Bố già của AI" bởi những đóng góp to lớn của ông trong lĩnh vực này. Ông đã giúp tạo ra các thuật toán học sâu (deep learning) - một phương pháp học máy đang trở thành xu hướng chủ đạo trong AI - đã đặt nền móng phần lớn công nghệ AI ngày nay.
Tuy nhiên, hôm 1/5/2023, sau cuộc phỏng vấn với The New York Times, Geoffrey Hinton tweet rằng ông rời Google để có thể "nói về sự nguy hiểm của AI mà không cần xem xét điều này tác động đến Google như thế nào" và tuyên bố rằng ông muốn có sự độc lập để lên tiếng về những mối nguy hiểm tiềm tàng của AI. Ông cho rằng, nếu không có các biện pháp kiểm soát, AI có thể dẫn đến những hậu quả nghiêm trọng đến con người và xã hội. Quyết định của Hinton đưa ra những lời cảnh báo về nguy cơ cúa AI, đã thu hút sự chú ý của giới chuyên môn và xã hội. Điều này cũng đánh dấu một bước ngoặt quan trọng trong cuộc đua phát triển AI - không chỉ tập trung vào việc tạo ra những ứng dụng mới mà còn phải quan tâm đến những hậu quả xã hội và đưa ra các giải pháp phù hợp.

Ngày 4/5/2023, Tổng thống Mỹ Joe Biden đã tổ chức một cuộc gặp mặt với CEO từ các công ty công nghệ hàng đầu như Microsoft và Alphabet để thảo luận về AI và các vấn đề xoay quanh an toàn sản phẩm AI trước khi triển khai sử dụng. Reuters cho biết cuộc họp kéo dài 2 giờ, nội dung cuộc họp xoay quanh một "cuộc thảo luận thẳng thắn và mang tính xây dựng" với các CEO Sundar Pichai của Google, Satya Nadella của Microsoft, Sam Altman của OpenAI và Dario Amodei của Anthropic về sự cần thiết của các công ty phải minh bạch hơn với các nhà hoạch định chính sách về hệ thống AI của mình. Ngoài ra, một trọng tâm khác là tầm quan trọng của việc đánh giá sự an toàn của các sản phẩm này cũng cần thiết phải bảo vệ chúng khỏi các cuộc tấn công ác ý.

Sam Altman, Giám đốc điều hành OpenAI - công ty khởi nghiệp phát triển ChatGPT, đã nói với ủy ban Thượng viện Hoa Kỳ hôm 16/5/2023 rằng việc sử dụng trí tuệ nhân tạo (AI) để can thiệp vào tính toàn vẹn cuộc bầu cử là "lĩnh vực đáng lo ngại". Sự phổ biến ngày càng tăng của generative AI làm dấy lên mối lo ngại rằng công nghệ phát triển nhanh này có thể khuyến khích gian lận trong các kỳ thi, cung cấp thông tin sai lệch và dẫn đến một thế hệ mới của các chiêu lừa đảo. Thượng nghị sĩ Cory Booker nói về thách thức khi áp dụng quy định kiểm soát AI toàn diện. "Không có cách nào để nhét lại thần đèn vào trong chai. Nó đang bùng nổ trên toàn cầu".

Tháng trước, giám đốc điều hành Tesla Elon Musk cùng đồng sáng lập Apple Steve Wozniak và hàng nghìn người khác đã ký một lá thư kêu gọi dừng phát triển AI. Bức thư nhấn mạnh: "Các hệ thống AI với trí thông minh cạnh tranh với con người có thể gây ra rủi ro sâu sắc cho xã hội và nhân loại".

Mỹ đang đi đầu trong lĩnh vực AI, chuyển đổi sức mạnh của máy móc để làm mọi công việc, từ viết email cho đến lái xe. Đã có một loạt các giới thiệu về AI trong những tháng gần đây. Công ty khởi nghiệp OpenAI có trụ sở tại San Francisco, công ty phát triển ChatGPT được Microsoft hậu thuẫn, đã tung ra vào tháng Ba mô hình trí tuệ nhân tạo mới nhất của mình - GPT-4. Những công ty công nghệ khổng lồ khác đã đầu tư vào các công cụ cạnh tranh - bao gồm “Bard” của Google. Ông Hinton nói với BBC rằng mối nguy hiểm của chatbot AI là “khá đáng sợ”. “Bây giờ nó chưa thông minh hơn chúng ta nhưng sẽ chẳng bao lâu nữa đâu.” Trong một cuộc phỏng vấn với tờ MIT Technology Review, ông Hinton cũng chỉ ra “những kẻ xấu” có thể sử dụng AI theo những cách có thể gây tác động bất lợi cho xã hội - chẳng hạn như thao túng bầu cử hoặc xúi giục bạo lực.
Trọng tâm các tranh cãi về AI là liệu các mối nguy hiểm của nó trong hiện tại và tương lai sẽ như thế nào? Một bên là các tình huống giả định về rủi ro tồn tại do máy tính thay thế trí thông minh của con người gây ra. Mặt khác là những lo ngại về công nghệ tự động đã được các doanh nghiệp và chính phủ triển khai rộng rãi và có thể gây ra những tác hại trong thế giới thực.
Bà Alondra Nelson, người đứng đầu Văn phòng Chính sách Khoa học và Công nghệ Tòa Bạch Ốc, nói: “Dù tốt hay không, những gì chatbot đã làm là biến AI trở thành đề tài bàn tán cấp quốc gia và quốc tế không chỉ bao gồm các chuyên gia và nhà phát triển AI."
"AI không còn trừu tượng nữa, và tôi nghĩ chúng ta bắt đầu bàn về cách chúng ta muốn thấy một tương lai dân chủ và một tương lai không bóc lột với công nghệ như thế nào,” bà Nelson nói trong một cuộc phỏng vấn vào tháng trước.
Một số nhà nghiên cứu AI từ lâu đã bày tỏ lo ngại về chủng tộc, giới tính và các hình thức thiên vị khác trong các hệ thống AI, bao gồm các mô hình ngôn ngữ dựa trên văn bản được tạo trên kho chữ viết khổng lồ của con người và có thể khuếch đại sự phân biệt đối xử tồn tại trong xã hội.
Bà Sarah Myers West, giám đốc điều hành của Viện AI Now phi lợi nhuận, cho biết: “Chúng ta cần lùi lại một bước và thực sự suy nghĩ xem nhu cầu của ai đang được đặt lên hàng đầu và là trung tâm trong cuộc thảo luận về rủi ro...Những tác hại do các hệ thống AI gây ra ngày nay thực sự không được phân bổ đồng đều. Nó đang làm trầm trọng thêm các mô hình bất bình đẳng hiện có.”

Một số nguy hiểm của AI đối với xã hội:

- Thất nghiệp: Một trong những nguy cơ lớn nhất của AI đối với xã hội là việc thay thế nhân lực bởi máy móc và AI. Các hệ thống tự động hóa có thể thực hiện các nhiệm vụ một cách nhanh chóng và chính xác hơn so với con người, do đó có thể dẫn đến sự thay thế người lao động và thất nghiệp. Những người lao động học vấn thấp bị bỏ lại xa và có khả năng lớn sẽ bị thay thế cao gấp hai lần so với những người lao động có trình độ học vấn cao vào giữa những năm 2030.

- Thiếu tính linh hoạt: Phát triển một công nghệ mới đồng nghĩa với việc các nhà nghiên cứu, kỹ sư, giới tài chính và các nhà lãnh đạo phải luôn kiểm soát được hướng đi tiếp theo của nó. Thế nhưng, trường hợp của AI có phần khác biệt hơn bởi ở một chừng mực nhất định nào đó, nó có thể tự đổi mới phát triển mà không cần sự “soi đường chỉ lối” của con người. Con người sẽ mất đi tính sáng tạo và thay vào đó là sự lười biếng, ỷ lại nếu việc ứng dụng công nghệ AI trở nên tràn lan. Đây hoàn toàn không phải chuyện có thể đùa được. Công nghệ thông minh hay AI đều là sản phẩm của con người. Tuy nhiên, mặt trái của AI là khi quá phụ thuộc vào máy móc thiết bị hiện đại, các kỹ năng học hỏi, sáng tạo, phân tích và ra quyết định của chúng ta sẽ bị bào mòn.

- Một loại quyền lực mới: Các công ty tư nhân hàng đầu thế giới có quyền lực và ảnh hưởng lớn đến sự phát triển của AI. Việc các công ty này sở hữu dữ liệu lớn thông tin người dùng trên toàn thế giới có thể gây ra những rủi ro đáng kể về an ninh mạng và quyền riêng tư. Nếu hệ thống AI bị tấn công hoặc bị lỗi, nó có thể gây ra hậu quả nghiêm trọng đến xã hội, đặc biệt khi các công ty này bỏ qua các nguyên tắc đạo đức để chạy theo lợi nhuận. Việc tìm ra các quy tắc và ranh giới cho AI vô cùng quan trọng, tuy nhiên, các tổ chức chính phủ chịu trách nhiệm về các quy định hầu như không thể theo kịp tốc độ tiến hóa chóng mặt của AI. Các công ty công nghệ hàng đầu thế giới như Facebook, Microsoft, Google, Apple, Alibaba, Tencent, Yahoo và Amazon có năng lực tài chính, dữ liệu mạnh mẽ và khả năng trí tuệ vượt trội để nâng cao chất lượng AI. Chính vì điều này mà rủi ro lớn nhất sẽ liên quan đến sự tồn tại của các nhóm công ty thương mại nhỏ. Và chất lượng công nghệ càng cao, càng nhiều người sử dụng chúng, công nghệ sẽ trở nên hiệu quả hơn, sẽ mang lại cho các công ty công nghệ lợi thế lớn hơn bao giờ hết. Và làm sao chúng ta biết được, họ sẽ làm gì với tất cả thông tin, hình ảnh, công việc, học tập, bệnh tật, các mối quan hệ của chúng ta?

- Nhân tính hóa công cụ, máy móc: Cho dù Alexa, Cortana, Bixby, Google Assistant hay Siri nói chuyện với chúng ta tự nhiên như thế nào, máy móc vẫn luôn là máy móc. Việc sử dụng trợ lý ảo không thể thay thế cho các mối quan hệ giữa con người vì nó không thể đáp ứng được nhu cầu của chúng ta về sự kết nối và tương tác. Hàng ngày, chúng ta nói chuyện với trợ lý ảo, đặt câu hỏi và nhận câu trả lời, có thể dẫn đến mất mát cho sự giao tiếp giữa con người và con người, làm cho chúng ta trở nên khó khăn hơn trong việc thiết lập mối quan hệ xã hội và tạo ra sự đơn độc. Việc nhân tính hóa máy móc sẽ phá hủy khoảng cách giữa máy móc với con người và gây ra sự phụ thuộc về cảm xúc, dẫn đến các vấn đề tâm lý lâu dài cho nhiều người. Sẽ đáng sợ như thế nào khi chúng ta suốt ngày nói chuyện với điện thoại thay vì tâm sự với cha mẹ…

- Đàn áp trong xã hội: Sự phát triển AI đem lại cơ hội lớn để tăng cường khả năng theo dõi, kiểm soát và giám sát mọi người trong xã hội. Tuy nhiên, việc sử dụng AI để đàn áp con người, đàn áp tự do ngôn luận và tư tưởng đáng báo động. AI có thể được sử dụng để giám sát và theo dõi đội ngũ nhân viên, cộng đồng và các tập thể khác, làm sự giảm sút quyền tự do. Với AI, dữ liệu có thể dễ dàng được tìm kiếm, lọc và phân tích một cách nhanh, hiệu quả hơn nhiều lần. Chính vì vậy, những kẻ chuyên quyền và chế độ độc tài sử dụng nhiều công cụ mạnh hơn để kiểm soát, giám sát người dân và tước đoạt quyền tự do của họ. Nếu dữ liệu huấn luyện thiên vị hoặc không đủ tư cách đại diện, thuật toán có thể tạo ra kết quả không công bằng hoặc gây ra phân biệt đối xử, chẳng hạn nếu một thuật toán nhận dạng khuôn mặt chỉ được huấn luyện với dữ liệu từ một số nhóm dân tộc, nó có thể gây ra sai sót và phân biệt đối xử đối với các nhóm dân tộc khác.

- Thúc đẩy sự phân chia xã hội: AI có thể được sử dụng để loại bỏ sự thiên vị của con người, tuy nhiên, nếu thuật toán AI được cung cấp dữ liệu thiên vị, nó sẽ tạo ra sự thiên vị nhiều hơn. Điều này đặc biệt đúng trong trường hợp các dữ liệu đó không đại diện cho tất cả các nhóm dân tộc và giới tính khác nhau. Vì vậy, quá trình thu thập và xử lý dữ liệu đóng vai trò rất quan trọng trong việc đảm bảo tính công bằng và đại diện của các hệ thống AI. Hơn nữa, việc sử dụng AI dựa trên các giả định sai lầm hoặc không công bằng để đánh giá rủi ro tội phạm hoặc để kiểm soát quá mức các khu dân cư thu nhập thấp có thể dẫn đến sự phân biệt chủng tộc và tăng thêm sự phân chia xã hội.

- Chiến tranh robot: Nhiều người bày tỏ lo ngại về chiến tranh trong tương lai gần khi những máy móc, vũ khí, từ máy bay không người lái đến tên lửa hành trình... được ứng dụng AI, Nếu các hệ thống vũ khí tự động được lập trình sai hoặc bị tấn công bởi hacker, chúng có thể gây ra hậu quả nghiêm trọng, không kiểm soát được chiến trận. AI không có cảm xúc và không có đạo đức, điều này dẫn đến việc sử dụng vũ khí một cách tàn nhẫn và vô nhân đạo.

- AI không chịu trách nhiệm: Đây là rủi ro đầu tiên của AI. Hiện nay, chưa có một ràng buộc rõ ràng nào về mặt pháp lý được áp dụng cho các hệ thống thông minh. Về trách nhiệm pháp lý khi hệ thống AI gây ra lỗi, chúng ta sẽ đánh giá chúng có giống như khi đánh giá một con người không? Một số quy định pháp luật đã được đưa ra trong một số quốc gia, đặc biệt là trong lĩnh vực tài chính và y tế, đòi hỏi các công ty sở hữu hệ thống AI phải có trách nhiệm về hệ thống của họ phải hoạt động tốt và không gây ra thiệt hại cho người dùng. Tuy nhiên, khi các hệ thống AI trở nên tự chủ và có khả năng ra quyết định mà không cần sự can thiệp của con người, vấn đề trách nhiệm pháp lý sẽ trở nên phức tạp hơn nhiều.

Tóm lại, AI mang lại nhiều tiềm năng và lợi ích cho xã hội, nhưng lại có nhiều thách thức đối với công bằng và đạo đức. Một trong những thách thức quan trọng là phải bảo đảm dữ liệu sử dụng để huấn luyện thuật toán AI phải đại diện cho tất cả các nhóm dân tộc và giới tính khác nhau. Ngoài việc thuật toán AI có thể thu thập và xử lý thông tin cá nhân, việc sử dụng AI trong lĩnh vực quân sự cũng đặt ra câu hỏi về trách nhiệm và sự khống chế. Ai sẽ chịu trách nhiệm cho hành động của các hệ thống AI trong phạm vi chiến tranh? Làm thế nào để bảo đảm rằng các quyết định quân sự dựa trên AI tuân thủ các nguyên tắc đạo đức và pháp luật quốc tế?
Hiện nay ngưởi ta chỉ quan tâm đến sự hủy diệt của vũ khí nguyên tử và biến đổi khí hậu mà chưa hiểu mối nguy tiềm ẩn của AI. Nhưng với những tầm vóc lớn trong khoa học kỹ thuật và các lãnh đạo quốc gia quan ngại về AI là cần thiết và phải được xem xét nghiêm túc. Cần có sự cân nhắc kỹ lưỡng và quản lý thông minh để bảo đảm rằng sự phát triển của AI phải đi đôi với việc bảo đảm an toàn, đạo đức và lợi ích của con người.