Ngày 17/3, tờ The Guardian và The New York Times đưa tin về việc Cambridge Analytica đã được tiếp cận dữ liệu của 50 triệu người dùng Facebook trong suốt chiến dịch tranh cử Tổng thống Mỹ vào năm 2016 mà không có sự cho phép của họ. Công ty này đã dùng những thông tin có được để tung ra các quảng cáo có chủ đích cho Tổng thống Mỹ Donald Trump trên Facebook.
Sau vụ bê bối này, Mark Zuckerberg tiếp tục bị các chính trị gia chất vấn về các nội dung độc hại, gây hiểu lầm trên Facebook và liệu Facebook có kế hoạch gì với nó không?
Facebook phải đối mặt với vấn đề này vào năm 2016 khi nền tảng truyền thông xã hội ngập chìm bởi các tin tức giả mạo trong cuộc bầu cử tổng thống Mỹ. Trong khi Zuckerberg cho rằng AI sẽ là một vị cứu tinh tiềm năng cho vấn đề này thì công ty hiện đang thuê 20.000 người để giám sát và kiểm duyệt tất cả nội dung của hơn 2 tỷ người dùng. Trong tương lai, công việc đó sẽ được thực hiện bởi trí tuệ nhân tạo (AI) ở quy mô lớn. Mark Zuckerberg phát biểu: “Chúng tôi đang dần dần chuyển sang cách thức mà công cụ AI đang phát triển có thể nhận diện nhiều hơn các nội dung bị đánh dấu trước khi con người báo cáo. Chúng tôi đang ưu tiên nội dung quan trọng nhất có thể xây dựng cho AI hiện nay, đó là nội dung liên quan tới khủng bố. ”
Anh cũng nói rằng 99% nội dung liên quan tới khủng bố trên Facebook bị gỡ xuống trước khi nó bị báo cáo. Thuật toán này rất tốt, nhưng Mark cũng thừa nhận loại nội dung này là dễ dàng nhận diện hơn cả.
Hiện nay, công nghệ AI phát huy sức mạnh nhiều nhất ở những nội dung người dùng đăng tải mang tính chất khiêu dâm. Trong quý I.2018, hơn 21 triệu nội dung mang tính khiêu dâm đã bị Facebook phát hiện và gỡ xuống gần như hoàn toàn và ngay trước khi người dùng báo cáo. Công cụ Ai mới này cũng giúp Facebook phát hiện và dán nhãn cảnh báo cho 86% trong 3,5 triệu nội dung mang tính chất bạo lực.
Đại diện của Facebook, ông Guy Rosen cho rằng thách thức lớn nhất trong việc kiểm soát nội dung người dùng là những bài đăng liên quan đến lời lẽ thù địch, xúc phạm, phân biệt đối xử. Theo như Facebook công bố, chỉ có khoảng 38% trong 2,5 triệu nội dung này được công nghệ phát hiện ra. Nguyên nhân do AI phải cần học thêm rất nhiều dữ liệu để nhận diện được các từ ngữ, câu cú biểu hiện có ý nghĩa thù địch, nhất là khi những từ ngữ này không phổ biến, mang nội dung hàm ý phức tạp và người dùng không báo cáo.
Ví dụ hiện hữu điển hình nhất trên internet hiên nay chính là Google và Jigsaw, hai công ty con của Alphabet, sở hữu một công cụ gọi là Perspective (Quan điểm) nhằm giúp nhận diện các văn bản trực tuyến "độc hại". Nhưng công cụ này đang gặp khó khăn trong việc phân biệt từ ngữ tiêu cực với các nội dung mang ý nghĩa tiêu cực, có hại.
Cách thức hoạt động phổ biến nhất của trí tuệ nhân tạo ngày nay là học sâu và chúng được lập trình để học hỏi từ con người. Nói một cách đơn giản, một kỹ sư đưa cho công cụ học tập nhiều ví dụ về những điều tốt đẹp và những điều xấu xa. Bằng cách đưa những từ tốt đẹp ra ngoài, như những từ riêng lẻ trong một câu không mang tính độc hại để so sánh với những từ còn lại, nó học mối quan hệ giữa những từ đó và xây dựng một hệ thống phức tạp về tốt và xấu.
Nhưng hệ thống AI chỉ có thể học hỏi từ dữ liệu mà con người đã đánh dấu tốt hay xấu theo một cách dễ hiểu. Vào thời điểm phát hành của Perspective, Jigsaw cho rằng những thiếu sót của hệ thống AI là do thiếu các dữ liệu được nhận định sẵn. AI đã không nhìn thấy đủ ví dụ về những trường hợp phức tạp, nội dung nặng nề để biết rằng phân biệt chủng tộc là xấu trong một số ngữ cảnh, nhưng không phải trong một bài báo hay cuốn sách lịch sử học thuật.
Vì vậy, thách thức của Facebook là tìm tất cả các trật tự của ngôn từ kích động thù địch, bắt nạt, đe dọa và khủng bố, để đào tạo AI của mình để tìm ra các ví dụ tương tự. Truy nhiên vấn đề trở nên khó khăn hơn hơn bởi vì không phải ai cũng có thể đồng ý về những gì làm cho bài đăng có hại hoặc mang tính lạm dụng. Mặc dù trong tương lai công cụ AI của Facebook có thể loại bỏ các nội dung vi phạm rõ ràng một cách dễ dàng, thì vẫn luôn có những quyết định khó khăn, tình huống mà buộc con người phải thực hiện.
Thao Nguyen - MarketingAI
Bình luận của bạn