Chuyên gia mạng hàng đầu cho rằng mối đe dọa thông tin sai lệch của Trí tuệ nhân tạo thế hệ là “được thổi phồng lên”
Nguy cơ của công nghệ deepfake đối với bầu cử
Các chuyên gia an ninh mạng lo ngại rằng nội dung do trí tuệ nhân tạo (AI) tạo ra có khả năng bóp méo nhận thức của chúng ta về thực tế. Mối quan tâm này càng trở nên nghiêm trọng hơn trong năm có nhiều cuộc bầu cử quan trọng. Tuy nhiên, một chuyên gia hàng đầu đã đi ngược lại xu hướng, cho rằng mối đe dọa mà deepfake gây ra đối với nền dân chủ có thể “bị thổi phồng quá mức”. Martin Lee, trưởng nhóm nghiên cứu và tình báo bảo mật Talos của Cisco, nói với CNBC rằng ông nghĩ rằng deepfake – mặc dù là một công nghệ mạnh mẽ – nhưng không có tác động mạnh mẽ như tin giả. Tuy nhiên, ông cũng cho biết thêm rằng các công cụ AI mới có “nguy cơ khiến việc tạo ra nội dung giả mạo trở nên dễ dàng hơn”.
Phát hiện nội dung do AI tạo ra
Nội dung do AI tạo ra thường có thể chứa các chỉ số dễ nhận dạng cho thấy nội dung đó không phải do người thật tạo ra. Đặc biệt, nội dung hình ảnh đã chứng minh được rằng dễ bị sai sót. Ví dụ, hình ảnh do AI tạo ra có thể chứa các bất thường về hình ảnh, chẳng hạn như một người có nhiều hơn hai bàn tay hoặc một chi bị hợp nhất vào nền của hình ảnh. Có thể khó phân biệt giữa âm thanh giọng nói tổng hợp và các đoạn clip giọng nói của người thật. Nhưng các chuyên gia cho biết AI vẫn chỉ tốt bằng dữ liệu đào tạo của nó. “Tuy nhiên, nội dung do máy tạo ra thường có thể bị phát hiện khi xem một cách khách quan. Trong mọi trường hợp, không có khả năng việc tạo nội dung sẽ hạn chế những kẻ tấn công”, Lee cho biết.
Tác động của AI đối với bầu cử
Các chuyên gia trước đây đã nói với CNBC rằng họ quan ngại về deepfake trong các cuộc bầu cử sắp tới trên toàn thế giới. Matt Calkins, giám đốc điều hành của công ty công nghệ doanh nghiệp Appian, giúp các doanh nghiệp tạo ứng dụng dễ dàng hơn bằng các công cụ phần mềm, cho biết AI có “tính hữu dụng hạn chế”. Ông cho biết thêm rằng rất nhiều công cụ AI tạo ra hiện nay có thể “nhàm chán”. “Khi nó hiểu bạn, nó có thể chuyển từ tuyệt vời sang hữu ích [nhưng] hiện tại nó chỉ có thể vượt qua ranh giới đó”. “Khi chúng ta sẵn sàng tin tưởng AI biết về bản thân mình, nó sẽ thực sự đáng kinh ngạc”, Calkins nói với CNBC trong một cuộc phỏng vấn tuần này. Calkins cảnh báo rằng điều đó có thể khiến nó trở thành một công cụ thông tin sai lệch hiệu quả hơn — và nguy hiểm hơn trong tương lai, đồng thời cho biết ông không hài lòng với tiến độ của các nỗ lực nhằm điều chỉnh công nghệ này ở Hoa Kỳ. Ông cho biết thêm rằng có thể phải đợi AI tạo ra thứ gì đó “mang tính xúc phạm” nghiêm trọng thì các nhà lập pháp Hoa Kỳ mới hành động. Calkins nói rằng: “Hãy cho chúng tôi một năm. Đợi cho đến khi AI xúc phạm chúng ta. Và rồi có lẽ chúng ta sẽ đưa ra quyết định đúng đắn”. “Các nền dân chủ là những thể chế phản ứng”.
Cách phát hiện thông tin sai lệch
Dù AI có tiến triển đến đâu, Lee của Cisco cho biết có một số cách đã được thử nghiệm và kiểm tra để phát hiện thông tin sai lệch, cho dù thông tin đó do máy hay do người tạo ra. Lee đề xuất rằng: “Mọi người cần biết rằng những cuộc tấn công này đang xảy ra và biết các kỹ thuật có thể được sử dụng. Khi gặp phải nội dung kích động cảm xúc của chúng ta, chúng ta nên dừng lại, tạm dừng và tự hỏi liệu bản thân thông tin đó có hợp lý hay không”. “Liệu nó có được xuất bản bởi một nguồn phương tiện truyền thông có uy tín không? Các phương tiện truyền thông uy tín khác có đưa tin về cùng một vấn đề không?” ông nói. “Nếu không, có lẽ đó là một trò lừa đảo hoặc chiến dịch thông tin sai lệch nên được bỏ qua hoặc báo cáo”.
Nguồn: https://cnbc.com
Xem bài viết gốc tại đây
Bạn cần Đăng nhập/Đăng ký để bình luận.