Báo cáo: Apple sắp ra mắt hệ thống tự phát hiện nội dung khiêu dâm trẻ em trên iPhone

Thứ sáu - 06/08/2021 04:51
Hệ thống nhận diện này sẽ được thực thi trên chính iPhone mà không có sự can thiệp từ phía máy chủ Apple nhằm đảo bảo quyền riêng tư.
Báo cáo: Apple sắp ra mắt hệ thống tự phát hiện nội dung khiêu dâm trẻ em trên iPhone

Theo báo cáo từ trang 9to5mac, Apple được cho là đang phát triển một hệ thống nhận diện sử dụng thuật toán băm (hash) cho phép phát hiện các nội dung lạm dụng trẻ em, đặc biệt là các nội dung khiêu dâm trẻ em được lưu trong thư viện ảnh của người dùng.

Được biết, hệ thống nhận diện này sẽ được triển khai trên chính thiết bị của người dùng (client-side) nhằm đảm bảo quyền riêng tư. Để có thể phát hiện nội dung khiêu dâm trẻ em trong thư viện ảnh, iPhone sẽ tự động tải về một bộ nhận diện về các nội dung bất hợp pháp, sau đó đối chiếu với những gì có trong máy người dùng. Nếu có bất kỳ nội dung nào bất hợp pháp, một báo cáo sẽ được gửi về Apple để xem xét lại.

Báo cáo: Apple sắp ra mắt hệ thống tự phát hiện nội dung khiêu dâm trẻ em trên iPhone - Ảnh 1.

Ở một cấp độ nào đó, hệ thống nhận diện này tương tự với các tính năng máy học (machine learning), được triển khai để nhận dạng đối tượng, cảnh quan và vật thể có trong các bức ảnh. Các phân tích nhận dạng, đối chiếu cụ thể sẽ chỉ được thực thi trên iPhone và không thể được can thiệp bởi phía máy chủ.

Tuy nhiên, chuyên gia bảo mật Matthew Green đã có những lưu ý về hệ thống này của Apple. Các thuật toán băm được đánh giá là không đáng tin cậy và có thể tạo ra các kết quả không chính xác. Cũng cần lưu ý là các bức ảnh có trong thư viện được sao lưu lên dịch vụ iCloud Photos không được mã hoá đầu cuối (E2E). Các bức ảnh này được mã hoá trên máy chủ của Apple và chìa khoá giải mã cũng là do Apple nắm giữ. Do đó, các cơ quan luật pháp hoàn toàn có thể can thiệp và buộc Apple phải cho họ xem dữ liệu của người dùng. Không chỉ mỗi iCloud Photos mà đa số các dịch vụ lưu trữ ảnh khác đều hoạt động như vậy.

Báo cáo: Apple sắp ra mắt hệ thống tự phát hiện nội dung khiêu dâm trẻ em trên iPhone - Ảnh 2.

Có khả năng trong tương lai, Apple sẽ tung ra một hệ thống nhận diện tương tự để quét các nội dung ở phía thiết bị của người dùng, sau đó các thông tin sẽ được lưu trữ trên một máy chủ ở dạng E2E. Nhiều chính phủ đã yêu cầu phát triển một hệ thống nhận diện như vậy để có thể quét các tin nhắn đối với các dịch vụ E2E như iMessages hay WhatsApp. Bởi suy cho cùng, sự phát triển của các dịch vụ nhắn tin E2E sẽ khiến cho các cơ quan chức năng khó phát hiện các vụ lạm dụng trẻ em.

Matthew Green cũng suy đoán rằng Apple có thể sẽ không đầu tư vào việc phát triển hệ thống nhận diện như vậy nếu việc ứng dụng cho các nội dung được mã hóa đầu cuối không phải là mục tiêu dài hạn.

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết
back to top
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây