Danh sách những người ký tên có cả nhà khoa học danh tiếng Geoffrey Hinton, đồng sáng lập OpenAI, Giám đốc An ninh Thông tin của Anthropic cùng nhiều lãnh đạo, chuyên gia AI hàng đầu thế giới.
Ảnh: Amelia Holowaty Krales / The Verge
Vào thứ Hai vừa qua, hơn 200 cựu nguyên thủ, nhà ngoại giao, người đoạt giải Nobel, lãnh đạo AI, nhà khoa học cùng nhiều nhân vật có ảnh hưởng đã cùng lên tiếng: Thế giới cần có một thỏa thuận quốc tế về những giới hạn tuyệt đối mà AI không được vượt qua – chẳng hạn như cấm AI giả mạo con người hoặc tự động tự nhân bản.
Cùng với hơn 70 tổ chức hoạt động trong lĩnh vực AI, họ đã ký vào sáng kiến “Lời Kêu Gọi Toàn Cầu Về Lằn Ranh Đỏ Cho AI” ([Global Call for AI Red Lines](https://red-lines.ai/#call)), kêu gọi các chính phủ đạt được một thỏa thuận chung về những “lằn ranh đỏ” cho AI trước cuối năm 2026. Những người ký tên gồm Geoffrey Hinton (Anh-Canada), Wojciech Zaremba (đồng sáng lập OpenAI), Jason Clinton (Anthropic), Ian Goodfellow (Google DeepMind) cùng nhiều chuyên gia tên tuổi khác.
> “Chúng tôi không chờ đến khi có thảm họa mới lên tiếng… Mục tiêu là chủ động ngăn chặn những rủi ro lớn, không thể khắc phục, trước khi chúng xảy ra,” ông Charbel-Raphaël Segerie, Giám đốc Trung tâm An toàn AI Pháp (CeSIA), chia sẻ tại cuộc họp báo.
Ông nói thêm: “Nếu các quốc gia chưa thể thống nhất hướng phát triển AI, thì ít nhất cũng cần đồng thuận về những điều AI tuyệt đối không được phép làm.”
Thông báo này được đưa ra ngay trước tuần lễ cấp cao của Đại hội đồng Liên Hiệp Quốc lần thứ 80 tại New York, với sáng kiến dẫn đầu bởi CeSIA, The Future Society và Trung tâm AI Tương Thích Con Người của UC Berkeley.
Nhà báo từng đoạt giải Nobel Hòa bình, Maria Ressa, cũng đã nhắc đến sáng kiến này trong [bài phát biểu khai mạc](https://webtv.un.org/en/asset/k14/k14a609n83) tại đại hội, đồng thời kêu gọi các quốc gia cùng chung tay buộc các tập đoàn công nghệ lớn phải chịu trách nhiệm ở quy mô toàn cầu.
Trên thực tế, một số khu vực đã ban hành quy định về “lằn ranh đỏ” cho AI. Ví dụ, Đạo luật AI của Liên minh châu Âu cấm các hình thức sử dụng AI được xem là “không thể chấp nhận” trong khối EU. Mỹ và Trung Quốc cũng đã đồng ý rằng [vũ khí hạt nhân](https://www.reuters.com/world/biden-xi-agreed-that-humans-not-ai-should-control-nuclear-weapons-white-house-2024-11-16/) phải luôn do con người kiểm soát, không giao cho AI. Tuy nhiên, một bộ quy định chung trên phạm vi toàn cầu hiện vẫn chưa có.
Theo bà Niki Iliadis, Giám đốc quản trị AI toàn cầu tại The Future Society, các cam kết tự nguyện của doanh nghiệp là chưa đủ: “Những chính sách trách nhiệm trong các công ty AI vẫn còn yếu, chưa thể kiểm soát thực sự.” Bà nhấn mạnh, thế giới cần một cơ quan độc lập, có quyền lực thực tế để xác định, kiểm tra và thực thi các lằn ranh đỏ đối với AI.
> “Các hãng AI có thể tuân thủ bằng cách ngừng phát triển AGI cho đến khi đảm bảo kiểm soát được mức độ an toàn,” Giáo sư Stuart Russell (UC Berkeley), chuyên gia hàng đầu về AI, nhận định. “Giống như ngành năng lượng hạt nhân chỉ xây nhà máy khi đã có giải pháp phòng tránh thảm họa, ngành AI phải lựa chọn hướng đi an toàn ngay từ đầu. Và chúng ta phải kiểm chứng được họ thực sự làm vậy.”
Giáo sư Russell khẳng định, việc thiết lập lằn ranh đỏ không hề cản trở phát triển kinh tế hay đổi mới sáng tạo, trái với lo ngại của một số ý kiến phản đối quy định AI: “AI hoàn toàn có thể phục vụ phát triển kinh tế mà không cần mạo hiểm với AGI ngoài tầm kiểm soát. Không thể lấy lý do ‘muốn AI chẩn đoán y khoa thì phải chấp nhận nguy cơ AGI hủy diệt thế giới’ – đó là suy nghĩ sai lầm.”
Kết nối mạng xã hội:
– [Facebook](https://www.facebook.com/verge)
– [Threads](https://www.threads.net/@verge)
– [Instagram](https://www.instagram.com/verge)
– [Youtube](https://www.youtube.com/user/theverge)
– [RSS](https://www.theverge.com/rss/index.xml)
Tham khảo thêm các [gợi ý ChatGPT sáng tạo nội dung hay nhất của tôi](https://aiphogpt.com)