Anh quốc mở rộng viện an toàn AI đến San Francisco trong bối cảnh giám sát chặt chẽ những thiếu sót về mặt quy định

Chứng khoán Quốc tế

Mở rộng Viện An toàn AI của Vương quốc Anh sang Hoa Kỳ

Chính phủ Anh đang mở rộng cơ sở thử nghiệm các mô hình trí tuệ nhân tạo (AI) “tiên phong” sang Hoa Kỳ, nhằm tiếp tục xây dựng hình ảnh là một quốc gia hàng đầu toàn cầu giải quyết các rủi ro của công nghệ và tăng cường hợp tác với Hoa Kỳ khi các chính phủ trên thế giới chạy đua để giành vị trí dẫn đầu về AI. Chính phủ Anh đã công bố vào thứ Hai rằng họ sẽ mở một cơ sở tương ứng của Viện An toàn AI tại San Francisco vào mùa hè này, một cơ quan do nhà nước hậu thuẫn tập trung vào việc thử nghiệm các hệ thống AI tiên tiến để đảm bảo chúng an toàn.

Mục tiêu của Viện An toàn AI Hoa Kỳ

Viện An toàn AI của Hoa Kỳ sẽ có mục tiêu tuyển dụng một nhóm nhân viên kỹ thuật do một giám đốc nghiên cứu đứng đầu. Tại London, viện hiện có một nhóm gồm 30 thành viên. Viện do Ian Hogarth, một doanh nhân công nghệ nổi tiếng của Anh, người sáng lập trang web khám phá nhạc hội Songkick, làm chủ tịch.

Ý nghĩa của việc mở rộng

Trong một tuyên bố, Bộ trưởng Công nghệ Anh Michelle Donelan cho biết việc triển khai Viện An toàn AI tại Hoa Kỳ “đại diện cho sự lãnh đạo của Anh về AI trong hành động.” “Đây là một thời điểm quan trọng trong khả năng của Vương quốc Anh trong việc nghiên cứu cả những rủi ro và tiềm năng của AI từ góc nhìn toàn cầu, tăng cường quan hệ đối tác với Hoa Kỳ và mở đường cho các quốc gia khác khai thác chuyên môn của chúng tôi khi chúng tôi tiếp tục dẫn đầu thế giới về an toàn AI.” Chính phủ cho biết việc mở rộng “sẽ cho phép Vương quốc Anh khai thác lượng lớn nhân tài công nghệ có sẵn tại Vùng Vịnh, tương tác với các phòng thí nghiệm AI lớn nhất thế giới có trụ sở tại cả London và San Francisco, và củng cố mối quan hệ với Hoa Kỳ để thúc đẩy an toàn AI vì lợi ích công cộng.”

Hoạt động của Viện An toàn AI

Kể từ khi Viện An toàn AI được thành lập vào tháng 11 năm 2023, viện đã đạt được tiến bộ trong việc đánh giá các mô hình AI tiên phong từ một số công ty hàng đầu trong ngành. Chính phủ cho biết vào thứ Hai rằng một số mô hình AI đã hoàn thành các thử thách an ninh mạng nhưng gặp khó khăn trong việc hoàn thành các thử thách nâng cao hơn, trong khi một số mô hình khác đã chứng minh kiến thức về hóa học và sinh học ở cấp độ tiến sĩ. Trong khi đó, tất cả các mô hình được viện thử nghiệm vẫn rất dễ bị “vượt ngục”, nơi người dùng đánh lừa chúng để tạo ra các phản hồi mà chúng không được phép theo hướng dẫn nội dung, trong khi một số mô hình sẽ tạo ra các đầu ra có hại ngay cả khi không cố gắng phá vỡ các biện pháp bảo vệ. Theo chính phủ, các mô hình được thử nghiệm cũng không thể hoàn thành các nhiệm vụ phức tạp và tốn thời gian hơn nếu không có con người giám sát.


Nguồn: https://cnbc.com

Xem bài viết gốc tại đây

Bạn cần Đăng nhập/Đăng ký để bình luận.