Apple, iPhone’lardaki fotoğrafları tarama planını askıya aldı

Apple, iPhone’lardaki fotoğrafları tarama planını askıya aldı

69
0
PAYLAŞ

Apple, iPhone'larda fotoğraf tarama planını askıya aldı

Elmalar; Çocuk istismarının tespiti için ürettiği iPhone model cep telefonlarına görüntü tarayan bir yazılım yüklemeyi amaçladığını geçtiğimiz günlerde sizlerle paylaşmıştık.

Yapılan açıklamalara göre sistem, iCloud’a yüklenen fotoğrafları tarayacak, istismarla ilgili içerikleri tespit edecek ve güvenlik güçlerine haber verecek.

iCloud’a yüklenecek tüm fotoğrafları gözden geçirecek olan yazılım, bunun mahremiyet ihlali anlamına geldiğini düşünen birçok kişinin tepkisine neden oldu.

ASKIYA ALINDI

elma, internet sitesinde yaptığı açıklamada, çocukların cinsel istismarını önlemek için geliştirdikleri özelliklerin iletişim araçlarıyla kullanılması ve bu tür materyallerin yaygınlaştırılması; müşterilerden, araştırmacılardan ve savunuculuk kuruluşlarından gelen yorumlar nedeniyle ertelediklerini belirtti.

Açıklamada, sistemin masadan tamamen kaldırılmadığı ancak eleştiriler doğrultusunda geliştirmek amacıyla lansmanın ertelendiği vurgulandı.

elma

SİSTEM NASIL ÇALIŞACAK

Kolluk kuvvetlerinin, çocuk cinsel istismarına ilişkin bilinen görüntülerin dijital kodlara dönüştürüldüğü arşivleri vardır. Bu kodlar ile herhangi bir fotoğrafın o arşivdeki görsellerle uyuşup uyuşmadığı anlaşılabilir.

Apple ayrıca, NeuralHash adlı benzer bir arşiv sistemini kullanarak iPhone’lardan olası çocuk istismarı fotoğraflarını çekmeyi planlıyor.

Kullanıcı, Apple’ın depolama hizmeti iCloud’a bir fotoğraf yüklediğinde, o fotoğraf kodlara dönüştürülerek arşivdekilerle karşılaştırılacak ve fotoğrafın istismar içerip içermediğini çıplak gözle bakmadan tespit edebilecek ve güvenlik güçlerine haber verin.

Söz konusu özelliğin iOS 15 ile bazı ülkelerde kullanılması bekleniyordu. Ancak Apple’ın erteleme kararının ardından ne zaman devreye gireceği bilinmiyor.

Apple, iPhone’larda fotoğraf tarama planını askıya aldı

Apple, iPhone'larda fotoğraf tarama planını askıya aldı

Elmalar; Çocuk istismarının tespiti için ürettiği iPhone model cep telefonlarına görüntü tarayan bir yazılım yüklemeyi amaçladığını geçtiğimiz günlerde sizlerle paylaşmıştık.

Yapılan açıklamalara göre sistem, iCloud’a yüklenen fotoğrafları tarayacak, istismarla ilgili içerikleri tespit edecek ve güvenlik güçlerine haber verecek.

iCloud’a yüklenecek tüm fotoğrafları gözden geçirecek olan yazılım, bunun mahremiyet ihlali anlamına geldiğini düşünen birçok kişinin tepkisine neden oldu.

ASKIYA ALINDI

elma, internet sitesinde yaptığı açıklamada, çocukların cinsel istismarını önlemek için geliştirdikleri özelliklerin iletişim araçlarıyla kullanılması ve bu tür materyallerin yaygınlaştırılması; müşterilerden, araştırmacılardan ve savunuculuk kuruluşlarından gelen yorumlar nedeniyle ertelediklerini belirtti.

Açıklamada, sistemin masadan tamamen kaldırılmadığı ancak eleştiriler doğrultusunda iyileştirilmesi amacıyla lansmanın ertelendiği vurgulandı.

elma

SİSTEM NASIL ÇALIŞACAK

Kolluk kuvvetlerinin, çocuk cinsel istismarına ilişkin bilinen görüntülerin dijital kodlara dönüştürüldüğü arşivleri vardır. Bu kodlar ile herhangi bir fotoğrafın o arşivdeki görsellerle uyuşup uyuşmadığı anlaşılabilir.

Apple ayrıca, NeuralHash adlı benzer bir arşiv sistemini kullanarak iPhone’lardan olası çocuk istismarı fotoğraflarını çekmeyi planlıyor.

Kullanıcı, Apple’ın depolama hizmeti iCloud’a bir fotoğraf yüklediğinde, o fotoğraf kodlara dönüştürülerek arşivdekilerle karşılaştırılacak ve fotoğrafın istismar içerip içermediği çıplak gözle bakılmadan tespit edilebilecek, güvenlik güçlerine haber verin.

Söz konusu özelliğin iOS 15 ile bazı ülkelerde kullanılması bekleniyordu. Ancak Apple’ın erteleme kararının ardından ne zaman devreye gireceği bilinmiyor.

PAYLAŞ

BİR CEVAP BIRAK