Internet Watch Foundation phát hiện thấy lượng CSAM tạo bằng AI tăng lên 260 lần chỉ trong một năm, và “đó chỉ là ngọn bồi bánh đá”

(SeaPRwire) –   Những con số thật đáng kinh ngạc, nhưng các chuyên gia cho rằng những gì chúng ta đang thấy chỉ là khởi đầu. Khi tài liệu lạm dụng tình dục trẻ em do AI tạo ra tăng vọt lên mức kỷ lục, các nhà nghiên cứu cảnh báo rằng công nghệ này không chỉ tạo ra nhiều nội dung độc hại hơn mà còn thay đổi cơ bản cách trẻ em bị nhắm mục tiêu, cách những người sống sót bị tái nạn và cách các nhà điều tra bị quá tải.

Các nhà điều tra vốn đã rất bận rộn với việc loại bỏ CSAM (tài liệu lạm dụng tình dục trẻ em) khỏi internet. Nhưng với AI tạo sinh, thách thức đó càng trở nên trầm trọng hơn. The Internet Watch Foundation (IWF), đường dây nóng lớn nhất châu Âu để chống lại hình ảnh lạm dụng tình dục trẻ em trực tuyến, đã ghi nhận mức tăng 260 lần trong các video lạm dụng tình dục trẻ em do AI tạo ra vào năm 2025. Con số này đã tăng từ chỉ 13 video vào năm trước lên 3.443. Các nhà nghiên cứu đã dành nhiều năm theo dõi vấn đề này cho biết sự bùng nổ này không phải là điều bất ngờ. Tuy nhiên, đó là một lời cảnh báo.

“Bất kỳ con số nào chúng ta thấy, đó chỉ là phần nổi của tảng băng chìm,” Melissa Stroebel, phó chủ tịch nghiên cứu và thông tin chiến lược tại Thorn, một tổ chức phi lợi nhuận xây dựng công nghệ để chống lại việc bóc lột tình dục trẻ em trực tuyến, cho biết. “Đó là về những gì đã được phát hiện hoặc chủ động báo cáo.”

Sự gia tăng này là hệ quả trực tiếp của việc AI tạo sinh trở nên nhanh hơn, rẻ hơn và dễ tiếp cận hơn đối với những kẻ xấu. Thorn đã xác định ba cách riêng biệt mà các công cụ này hiện đang bị vũ khí hóa để chống lại trẻ em.

Đầu tiên là việc tái nạn nhân hóa những người sống sót sau các vụ lạm dụng trong quá khứ. Một đứa trẻ bị lạm dụng vào năm 2010 và hình ảnh của chúng đã lưu hành trực tuyến hơn một thập kỷ nay phải đối mặt với một lớp tổn hại hoàn toàn mới. Những kẻ phạm tội đang sử dụng AI để lấy những hình ảnh hiện có đó và cá nhân hóa chúng: tự chèn mình vào các cảnh lạm dụng đã được ghi lại để tạo ra tài liệu mới.

“Cũng giống như cách bạn có thể Photoshop bà ngoại đã lỡ bức ảnh Giáng sinh vào bức ảnh Giáng sinh,” Stroebel nói với , “những kẻ xấu có thể Photoshop mình vào các cảnh và hồ sơ của một đứa trẻ đã được xác định.” Quá trình đó tạo ra sự tái nạn nhân hóa mới cho những người sống sót có thể đã dành nhiều năm cố gắng vượt qua sự lạm dụng của họ.

Thứ hai là việc vũ khí hóa những hình ảnh vô tội. Một bức ảnh của một đứa trẻ trên trang web đội bóng đá của trường giờ đây là nguồn tài liệu tiềm năng cho việc lạm dụng. Với các công cụ AI có sẵn rộng rãi, một kẻ phạm tội có thể chuyển đổi hình ảnh hoàn toàn vô hại đó thành tài liệu lạm dụng tình dục chỉ trong vài phút. Thorn cũng đang ghi nhận các trường hợp bạn bè với bạn bè, nơi một người trẻ tạo ra hình ảnh lạm dụng của một bạn học mà không hoàn toàn hiểu được mức độ nghiêm trọng của tác hại mà họ đang gây ra.

Tác động thứ ba, và mang tính hệ thống nhất, là áp lực đang đè nặng lên các kênh báo cáo vốn đã quá tải. The National Center for Missing and Exploited Children nhận hàng chục triệu báo cáo CSAM mỗi năm. Tốc độ mà AI hiện có thể tạo ra tài liệu mới làm tăng đáng kể gánh nặng đó và tạo ra một sự khẩn cấp mới. Khi một hình ảnh mới xuất hiện, các nhà điều tra phải xác định xem nó có mô tả một đứa trẻ đang gặp nguy hiểm thực sự ngay bây giờ hay là một hình ảnh do AI tạo ra.

“Đó là những thông tin đầu vào thực sự quan trọng để giúp họ phân loại và phản ứng với các trường hợp này,” Stroebel nói. Nội dung do AI tạo ra khiến việc xác định đó trở nên khó khăn hơn đáng kể, nhưng cô ấy nói thêm rằng cả hai trường hợp hình ảnh được chụp trong thời gian thực và hình ảnh do AI tạo ra đều được báo cáo và xử lý theo cùng một cách bởi các nhà chức trách.

Công nghệ này cũng đã khiến một số hướng dẫn an toàn cho trẻ em được lặp đi lặp lại nhiều nhất trở nên lỗi thời một cách nguy hiểm. Trong nhiều năm, trẻ em đã được cảnh báo không chia sẻ hình ảnh trực tuyến như một biện pháp bảo vệ cơ bản chống lại sự bóc lột. Lời khuyên đó không còn đúng nữa. Nghiên cứu của Thorn cho thấy 1 trong 17 người trẻ đã từng trải qua việc bị lạm dụng hình ảnh deepfake, và 1 trong 8 người biết ai đó đã bị nhắm mục tiêu. Nạn nhân của tống tiền tình dục hiện đang bị gửi những hình ảnh trông giống hệt họ—những hình ảnh mà họ chưa bao giờ chụp.

“Không cần một đứa trẻ phải chia sẻ hình ảnh nữa để chúng bị nhắm mục tiêu bóc lột,” Stroebel nói.

Về mặt phát hiện, công nghệ băm truyền thống, hoạt động như một dấu vân tay kỹ thuật số cho các tệp lạm dụng đã biết, không thể xác định nội dung do AI tạo ra vì mỗi hình ảnh được tạo tổng hợp về mặt kỹ thuật là mới. Lấy ví dụ, một bức ảnh về một thứ rất nổi tiếng, như Tượng Nữ thần Tự do. Bức ảnh đó của bức tượng có một dấu vân tay kỹ thuật số. Bây giờ hãy nói rằng bạn phóng to, phóng to thêm nữa, và phóng to lại để thay đổi độ bóng của một pixel đi 0,1%. Thay đổi đó có thể không thể nhận thấy bằng mắt thường. Tuy nhiên, dấu vân tay của bức ảnh đó giờ đây hoàn toàn mới, có nghĩa là công nghệ băm không nhận ra nó là cùng một bức ảnh chỉ với sự khác biệt một pixel đó.

Trước đây, theo công nghệ băm truyền thống, việc tạo ra sự khác biệt một pixel đó cho một bức ảnh được biết là CSAM có nghĩa là nó sẽ không bị công nghệ phát hiện. Tuy nhiên, công nghệ phân loại, đánh giá những gì một hình ảnh chứa thay vì khớp nó với một tệp đã biết, hiện là điều cần thiết để bắt giữ nội dung mà nếu không sẽ hoàn toàn lọt qua.

Đối với các bậc cha mẹ, thông điệp của Stroebel là khẩn cấp và rõ ràng: cuộc trò chuyện không thể chờ đợi, và nó phải vượt xa những cảnh báo cũ. Nếu một đứa trẻ lên tiếng, phản ứng đầu tiên không thể là sự hoài nghi. “Công việc của chúng tôi là: con có an toàn không, và làm thế nào để tôi giúp con tiến tới bước tiếp theo?”

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.