Bạn đang trò chuyện với một siêu bot do AI cung cấp năng lượng?

Tin tức quốc tế

Trận chiến trên mạng xã hội giữa người và bot liên quan đến cuộc tấn công của Israel vào Gaza

Khi cuộc tấn công của Israel vào Gaza tiếp diễn trên thực địa, một cuộc chiến song song đang diễn ra trên mạng xã hội giữa con người và bot. Các nhà nghiên cứu người Lebanon Ralph Baydoun và Michel Semaan, đến từ công ty tư vấn truyền thông chiến lược và nghiên cứu đã quyết định theo dõi hành vi của những bot “có vẻ như của Israel” trên mạng xã hội kể từ ngày 7 tháng 10. Baydoun và Semaan cho biết, ban đầu, các tài khoản ủng hộ Palestine chiếm ưu thế trên không gian mạng xã hội. Tuy nhiên, họ sớm nhận thấy, những bình luận ủng hộ Israel đã tăng đáng kể. Semaan nói: “Ý tưởng là nếu một nhà hoạt động [ủng hộ Palestine] đăng tải một nội dung nào đó thì trong vòng năm… 10… hoặc 20 phút hoặc một ngày, một lượng lớn [bình luận cho bài đăng của họ] sẽ ủng hộ Israel”. “Hầu hết mọi dòng tweet đều bị nhiều tài khoản tấn công và tấn công, tất cả đều theo cùng một khuôn mẫu, tất cả đều có vẻ gần giống con người.” Nhưng chúng không phải là con người. Chúng là bot. Bot, viết tắt của robot, là một chương trình phần mềm thực hiện các tác vụ tự động, lặp đi lặp lại. Bot có thể tốt hoặc xấu. Các bot tốt có thể giúp cuộc sống dễ dàng hơn: chúng thông báo cho người dùng về các sự kiện, giúp khám phá nội dung hoặc cung cấp dịch vụ khách hàng trực tuyến. Các bot xấu có thể thao túng số lượng người theo dõi trên mạng xã hội, lan truyền thông tin sai lệch, tạo điều kiện cho các vụ lừa đảo và quấy rối mọi người trực tuyến. Một nghiên cứu của công ty an ninh mạng cho thấy, vào cuối năm 2023, gần một nửa lưu lượng truy cập internet là do bot tạo ra. Các bot xấu đã đạt mức cao nhất được Imperva ghi nhận, chiếm 34% lưu lượng truy cập internet, trong khi các bot tốt chỉ chiếm 15% còn lại. Điều này một phần là do sự phổ biến ngày càng tăng của trí tuệ nhân tạo (AI) trong việc tạo văn bản và hình ảnh. Theo Baydoun, các bot ủng hộ Israel mà họ tìm thấy chủ yếu nhằm mục đích gieo rắc sự nghi ngờ và gây nhầm lẫn về một câu chuyện ủng hộ Palestine thay vì khiến người dùng mạng xã hội tin tưởng vào chúng. Các đội quân bot – hàng nghìn đến hàng triệu bot độc hại – được sử dụng trong các chiến dịch thông tin sai lệch quy mô lớn để tác động đến dư luận. Khi bot trở nên tiên tiến hơn, việc phân biệt giữa nội dung của bot và nội dung của con người trở nên khó hơn. Jillian York, giám đốc Tự do ngôn luận quốc tế tại nhóm quyền kỹ thuật số phi lợi nhuận quốc tế, cho biết: “Khả năng tạo ra các mạng lưới bot lớn hơn này của AI… có tác động rất lớn đến giao tiếp trung thực, nhưng cũng như tự do ngôn luận vì chúng có khả năng át đi tiếng nói của con người”. Các bot ban đầu rất đơn giản, hoạt động theo các quy tắc được xác định trước thay vì sử dụng các kỹ thuật AI tinh vi như ngày nay. Bắt đầu từ đầu đến giữa những năm 2000, khi các mạng xã hội như MySpace và Facebook phát triển, bot mạng xã hội trở nên phổ biến vì chúng có thể tự động hóa các tác vụ như nhanh chóng thêm “bạn bè”, tạo tài khoản người dùng và tự động đăng bài. Những bot thời kỳ đầu này có khả năng xử lý ngôn ngữ hạn chế – chỉ hiểu và phản hồi một phạm vi hẹp các lệnh hoặc từ khóa được xác định trước. Semaan cho biết: “Các bot trực tuyến trước đây, đặc biệt là vào giữa những năm 2010… chủ yếu lặp đi lặp lại cùng một văn bản hết lần này đến lần khác. Văn bản… sẽ rất rõ ràng là do một bot viết”. Đến những năm 2010, những tiến bộ nhanh chóng trong xử lý ngôn ngữ tự nhiên (NLP), một nhánh của AI cho phép máy tính hiểu và tạo ra ngôn ngữ của con người, đồng nghĩa với việc bot có thể làm được nhiều hơn thế. Trong cuộc bầu cử tổng thống Hoa Kỳ năm 2016 giữa Donald Trump và Hillary Clinton, một nghiên cứu của các nhà nghiên cứu thuộc Đại học Pennsylvania đã phát hiện ra rằng một phần ba số tweet ủng hộ Trump và gần một phần năm số tweet ủng hộ Clinton đến từ các bot trong hai cuộc tranh luận đầu tiên. Sau đó, một loại NLP nâng cao hơn được gọi là mô hình ngôn ngữ lớn (LLM) sử dụng hàng tỷ hoặc hàng nghìn tỷ tham số để tạo ra văn bản giống con người đã xuất hiện. Các siêu bot là những bot thông minh được hỗ trợ bởi AI hiện đại. Các LLM như Chat GPT đã làm cho bot trở nên tinh vi hơn. Bất kỳ ai sử dụng LLM đều có thể tạo ra các lời nhắc đơn giản để trả lời các bình luận trên mạng xã hội. Điểm hay, hay nói đúng hơn là điểm xấu của siêu bot là chúng tương đối dễ triển khai. Để hiểu rõ hơn về cách hoạt động của bot, Baydoun và Semaan đã xây dựng siêu bot của riêng mình và mô tả cách hoạt động của nó: Liên kết và nội dung của bài đăng được lưu trữ và gửi đến bước 2. Trong nhiều năm, bất kỳ ai thông thạo internet đều có thể dễ dàng phân biệt được bot với người dùng là con người. Nhưng ngày nay, bot không chỉ có vẻ như lý luận mà còn có thể được gán cho một kiểu tính cách. Semaan cho biết: “Đã đến lúc rất khó để phân biệt liệu văn bản có được viết bởi một người thực hay bởi một mô hình ngôn ngữ lớn hay không. Bạn không thể biết chắc chắn [bây giờ] đây là bot hay không”. Nhưng Semaan và Baydoun nói rằng vẫn có một số manh mối để biết một tài khoản có phải là bot hay không. Nhiều bot sẽ sử dụng hình ảnh do AI tạo ra có vẻ giống người nhưng có thể có những khuyết điểm nhỏ như các đặc điểm khuôn mặt bị méo mó, ánh sáng lạ hoặc cấu trúc khuôn mặt không nhất quán. Tên bot có xu hướng chứa các số ngẫu nhiên hoặc viết hoa không thường xuyên và tiểu sử người dùng thường hấp dẫn một nhóm mục tiêu và có ít thông tin cá nhân. Thông thường, đây là thông tin khá gần đây. Theo Semaan, các bot thường theo dõi các bot khác để xây dựng một lượng lớn người theo dõi. Semaan cho biết, các bot thường đăng lại về “những điều hoàn toàn ngẫu nhiên” như một đội bóng đá hoặc một ngôi sao nhạc pop. Tuy nhiên, các câu trả lời và bình luận của họ lại chứa đầy những chủ đề hoàn toàn khác. Bot có xu hướng trả lời bài đăng một cách nhanh chóng – thường là trong vòng 10 phút hoặc ít hơn. Bot không cần ăn, ngủ hoặc suy nghĩ, vì vậy chúng có thể đăng rất nhiều bài – thường là vào mọi thời điểm trong ngày. Bot có thể đăng văn bản “kỳ lạ” hoặc có cấu trúc câu lạ. Bot thường nhắm mục tiêu đến các tài khoản cụ thể như tài khoản đã được xác minh hoặc tài khoản có nhiều người theo dõi. Theo một báo cáo của nhóm thực thi pháp luật châu Âu Europol, vào năm 2026, khoảng 90% nội dung trực tuyến sẽ do AI tạo ra. Nội dung do AI tạo ra – bao gồm hình ảnh, âm thanh hoặc video làm giả sâu bắt chước con người – đã được sử dụng để tác động đến cử tri trong cuộc bầu cử Ấn Độ năm nay, với những lo ngại gia tăng về tác động mà chúng có thể gây ra trong cuộc bầu cử Hoa Kỳ sắp tới vào ngày 5 tháng 11. Các nhà hoạt động vì quyền kỹ thuật số ngày càng lo ngại. York nói với Al Jazeera: “Chúng tôi không muốn tiếng nói của mọi người bị các quốc gia kiểm duyệt, nhưng chúng tôi cũng không muốn tiếng nói của mọi người bị các bot này và những người làm tuyên truyền cũng như các quốc gia tuyên truyền át đi”. “Tôi coi đó là một vấn đề về tự do ngôn luận theo nghĩa là mọi người [không thể] thể hiện bản thân khi họ phải cạnh tranh với những người cung cấp thông tin sai lệch trắng trợn”. Các nhóm về quyền kỹ thuật số đang cố gắng buộc các công ty công nghệ lớn phải chịu trách nhiệm về sự tắc trách và thất bại của họ trong việc bảo vệ các cuộc bầu cử và quyền của công dân. Nhưng York cho biết đây là một “tình huống David và Goliath” khi mà các nhóm này không có “khả năng được lắng nghe như nhau”.


Nguồn: https://aljazeera.com

Xem bài viết gốc tại đây

Bạn cần Đăng nhập/Đăng ký để bình luận.