Gã khổng lồ công nghệ cam kết an toàn AI — bao gồm cả “công tắc kill” nếu không thể giảm thiểu rủi ro
Hiệp định về An toàn Trí tuệ nhân tạo
Các công ty công nghệ lớn như Microsoft, Google và OpenAI đã ký kết một thỏa thuận quốc tế mang tính bước ngoặt về an toàn trí tuệ nhân tạo tại Hội nghị thượng đỉnh về an toàn AI ở Seoul. Thỏa thuận này quy định các công ty từ các quốc gia như Hoa Kỳ, Trung Quốc, Canada, Vương quốc Anh, Pháp, Hàn Quốc và Các Tiểu vương quốc Ả Rập Thống nhất cam kết tự nguyện đảm bảo sự phát triển an toàn của các mô hình AI tiên tiến nhất của họ.
Các nguyên tắc cốt lõi
Các nhà sản xuất mô hình AI sẽ công bố các khuôn khổ an toàn nêu rõ cách họ sẽ đánh giá rủi ro của các mô hình tiên tiến, chẳng hạn như kiểm tra rủi ro sử dụng sai công nghệ của những kẻ xấu. Các khuôn khổ này sẽ bao gồm “lằn ranh đỏ” cho các công ty công nghệ, xác định các loại rủi ro liên quan đến hệ thống AI tiên tiến được coi là “không thể chịu đựng được” – những rủi ro này bao gồm nhưng không giới hạn ở các cuộc tấn công mạng tự động và mối đe dọa từ vũ khí sinh học.
“Công tắc hủy kích hoạt”
Trong những trường hợp cực đoan như vậy, các công ty cho biết họ sẽ triển khai “công tắc hủy kích hoạt” để ngừng phát triển các mô hình AI của mình nếu họ không thể đảm bảo giảm thiểu những rủi ro này.
Những cam kết mở rộng
Hiệp ước được nhất trí vào thứ Ba mở rộng thêm một loạt các cam kết trước đó của các công ty tham gia phát triển phần mềm AI tạo sinh tại Hội nghị thượng đỉnh về an toàn AI của Vương quốc Anh tại Bletchley Park, Anh vào tháng 11 năm ngoái.
Chỉ áp dụng cho các mô hình “tiên tiến”
Các cam kết được nhất trí vào thứ Ba chỉ áp dụng cho các mô hình được gọi là “tiên tiến”. Thuật ngữ này đề cập đến công nghệ đằng sau các hệ thống AI tạo sinh như họ mô hình ngôn ngữ lớn GPT của OpenAI, là nền tảng cho chatbot AI ChatGPT phổ biến.
Quy định của EU và Vương quốc Anh
Liên minh Châu Âu đã tìm cách hạn chế sự phát triển của AI không kiểm soát bằng cách tạo ra Đạo luật AI, được Hội đồng EU thông qua vào thứ Ba. Vương quốc Anh chưa đề xuất luật chính thức cho AI, thay vào đó chọn cách tiếp cận “nhẹ nhàng” đối với quy định về AI, theo đó các cơ quan quản lý áp dụng luật hiện hành cho công nghệ.
Nguồn: https://cnbc.com
Xem bài viết gốc tại đây
Bạn cần Đăng nhập/Đăng ký để bình luận.