Giải thích: Cách Apple quét các hình ảnh bóc lột trẻ em trên các thiết bị và lý do tại sao Apple lại nhướng mày
Dự kiến ban đầu sẽ được phát hành tại Hoa Kỳ, các tính năng bao gồm sử dụng công nghệ mới để hạn chế sự lây lan của CSAM trực tuyến, đặc biệt là thông qua nền tảng của Apple.

Apple đã thông báo rằng cập nhật phần mềm vào cuối năm nay sẽ mang lại các tính năng mới điều đó sẽ giúp bảo vệ trẻ em khỏi những kẻ săn mồi sử dụng các công cụ truyền thông để tuyển dụng và khai thác chúng, đồng thời hạn chế việc phát tán Tài liệu lạm dụng tình dục trẻ em (CSAM).
Dự kiến ban đầu sẽ được phát hành tại Hoa Kỳ, các tính năng bao gồm sử dụng công nghệ mới để hạn chế sự lây lan của CSAM trực tuyến, đặc biệt là thông qua nền tảng của Apple.
Sau đó, sẽ có chế độ bảo vệ trên thiết bị để trẻ em gửi hoặc nhận nội dung nhạy cảm, với cơ chế cảnh báo cha mẹ trong trường hợp người dùng dưới 13 tuổi. Apple cũng sẽ can thiệp khi Siri hoặc Search được sử dụng để tra cứu các chủ đề liên quan đến CSAM. .
Apple đang làm công nghệ gì để ngăn chặn sự lây lan của CSAM trực tuyến?
Trong một bài đăng trên blog, Apple giải thích rằng họ sẽ sử dụng các ứng dụng mật mã thông qua iOS và iPadOS để khớp các hình ảnh CSAM đã biết được lưu trữ trên iCloud Photo. Công nghệ sẽ đối sánh hình ảnh trên iCloud của người dùng với hình ảnh đã biết do các tổ chức an toàn trẻ em cung cấp. Và điều này được thực hiện mà không thực sự nhìn thấy hình ảnh và chỉ bằng cách tìm kiếm những gì giống như một dấu vân tay. Trong trường hợp có các kết quả trùng khớp vượt qua một ngưỡng, Apple sẽ báo cáo các trường hợp này cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC).
Apple đã làm rõ rằng công nghệ của họ luôn lưu ý đến quyền riêng tư của người dùng và do đó, cơ sở dữ liệu được chuyển đổi thành một bộ băm không thể đọc được được lưu trữ an toàn trên thiết bị của người dùng. Nó nói thêm rằng trước khi bất kỳ hình ảnh nào được tải lên iCloud, hệ điều hành sẽ đối sánh nó với các hàm băm CSAM đã biết bằng cách sử dụng một công nghệ mật mã được gọi là giao điểm đặt riêng. Công nghệ này cũng sẽ xác định một trận đấu mà không tiết lộ kết quả.
Tại thời điểm này, thiết bị tạo ra một chứng từ an toàn mật mã với kết quả trận đấu và dữ liệu được mã hóa bổ sung và lưu nó vào iClouds cùng với hình ảnh. Công nghệ chia sẻ bí mật ngưỡng đảm bảo rằng Apple không thể giải thích những phiếu thưởng này trừ khi tài khoản Ảnh iCloud vượt qua ngưỡng nội dung CSAM đã biết. Ngưỡng này, blog đã tuyên bố, đã được đưa ra để cung cấp mức độ chính xác cực cao và đảm bảo ít hơn một trong một nghìn tỷ cơ hội mỗi năm gắn cờ sai cho một tài khoản nhất định. Vì vậy, một hình ảnh không có khả năng kích hoạt cảnh báo.
Nhưng nếu vượt quá ngưỡng, Apple có thể giải thích nội dung của chứng từ an toàn và xem xét thủ công từng báo cáo để tìm sự trùng khớp, vô hiệu hóa tài khoản của người dùng và gửi báo cáo tới NCMEC. Apple cho biết người dùng sẽ có thể kháng cáo nếu họ nghĩ rằng họ đã bị gắn cờ sai.
Các tính năng khác hoạt động như thế nào?
Tính năng an toàn giao tiếp mới của Apple dành cho Tin nhắn sẽ làm mờ hình ảnh nhạy cảm và cảnh báo trẻ em về bản chất của nội dung. Nếu được bật từ chương trình phụ trợ, đứa trẻ cũng có thể được thông báo rằng cha mẹ của chúng đã được cảnh báo về tin nhắn mà chúng đã xem. Điều tương tự cũng sẽ được áp dụng nếu đứa trẻ quyết định gửi một tin nhắn nhạy cảm. Apple cho biết Messages sẽ sử dụng công nghệ máy học trên thiết bị để phân tích các tệp đính kèm hình ảnh và xác định xem một bức ảnh có khiêu dâm hay không và Apple sẽ không có quyền truy cập vào các tin nhắn. Tính năng này sẽ xuất hiện dưới dạng bản cập nhật trên các tài khoản được thiết lập dưới dạng gia đình trong iCloud cho các phiên bản hệ điều hành mới nhất.
Ngoài ra, với bản cập nhật, khi người dùng cố gắng tìm kiếm các chủ đề CSAM tiềm năng, Siri và Tìm kiếm sẽ giải thích lý do tại sao điều này có thể gây hại và có vấn đề. Người dùng cũng sẽ được hướng dẫn cách nộp báo cáo về tình trạng bóc lột trẻ em nếu họ yêu cầu.
| Giải thích: Làm thế nào và tại sao Google sẽ cung cấp nhiều biện pháp bảo vệ hơn cho trẻ em trực tuyến
Tại sao Apple lại làm điều này và những lo ngại đang được đặt ra là gì?
Các công ty công nghệ lớn trong nhiều năm đã phải chịu áp lực ngăn chặn việc sử dụng nền tảng của họ để bóc lột trẻ em. Nhiều báo cáo trong nhiều năm đã nhấn mạnh việc chưa thực hiện đủ cách nào để ngăn công nghệ cung cấp nội dung CSAM rộng rãi hơn.
Tuy nhiên, thông báo của Apple đã vấp phải sự chỉ trích với nhiều ý kiến nhấn mạnh rằng đây chính xác là loại công nghệ giám sát mà nhiều chính phủ muốn có và thích lạm dụng. Thực tế là điều này đến từ Apple, vốn từ lâu đã trở thành người nổi tiếng về quyền riêng tư, đã khiến nhiều người ngạc nhiên.
Ngoài ra, các chuyên gia mật mã như Matthew Green của Đại học Johns Hopkins đã bày tỏ lo ngại rằng hệ thống có thể được sử dụng để đóng khung những người vô tội gửi cho họ hình ảnh nhằm kích hoạt các trận đấu cho CSAM. Ông nói với NPR, các nhà nghiên cứu đã có thể thực hiện điều này khá dễ dàng, đồng thời cho biết thêm rằng có thể đánh lừa các thuật toán như vậy.
Nhưng The New York Times dẫn lời Giám đốc quyền riêng tư của Apple Erik Neuenschwander cho biết những tính năng này sẽ không có ý nghĩa khác biệt đối với người dùng thông thường.
Nếu bạn đang lưu trữ một bộ sưu tập tài liệu CSAM, vâng, điều này có hại cho bạn, anh ấy nói với nhà xuất bản.
Bản tin| Nhấp để nhận những giải thích hay nhất trong ngày trong hộp thư đến của bạn
Các công ty công nghệ lớn khác có công nghệ tương tự không?
Đúng. Trên thực tế, Apple là người tham gia tương đối muộn khi Microsoft, Google và Facebook đã cảnh báo các cơ quan thực thi pháp luật về hình ảnh CSAM. Apple đã bị tụt lại phía sau bởi vì bất kỳ công nghệ nào như vậy sẽ đi ngược lại cam kết được quảng cáo nhiều về quyền riêng tư của người dùng. Kết quả là vào năm 2020, khi Facebook báo cáo 20,3 triệu trường hợp vi phạm CSAM cho NCMEC, Apple chỉ có thể báo cáo 265 trường hợp, The New York Times đưa tin.
Chỉ đến bây giờ nó mới có thể tìm thấy điểm hấp dẫn công nghệ để làm điều này mà không ảnh hưởng đến người dùng thông thường, hoặc ít nhất là làm hỏng họ. Tuy nhiên, như phản ứng dữ dội ban đầu đã cho thấy, nó vẫn chỉ là một bước đi chặt chẽ.
Chia Sẻ VớI BạN Bè CủA BạN: