celikci
New member
Apple, geçtiğimiz günlerde yeni bir özelliği yürürlüğe koyacağını duyurdu: Çocuk cinsel taciz gereci (Child Sexual Abuse Material – CSAM) tespit özelliği. Yani kullanıcı fotoğraflarını çocuk istismarına karşı denetim etmek için iCloud’a yüklenen fotoğrafları otomatik olarak taramak. Şirket bunu, çocuk istismarı ile ilgili içerikleri sınırlamak için yapıyor, lakin hem de “çocukları, işe almak ve sömürmek için bağlantı araçlarını kullananlardan korumak” için öbür özellikler de ekliyor. Yeni özellikler şimdilik, sadece ABD’de devrede olacak.
CSAM Tespit Özelliği Nedir?
Mevzuyu biraz açalım: Apple, iOS 15 ve iPadOS 15’te, evvelde tanımlanmış CSAM içeriğiyle eşleşip eşleşmediklerini görmek için bir kullanıcının aletinden iCloud’a yüklenen manzaraları otomatik olarak tarayacak yeni bir özellik sunuyor.
Dijital parmak izlerini denetim etmek, web sitesi güvenlik şirketi CloudFare’in 2019’da kurduğu ve Ashton Kutcher ve Demi Moore tarafınca ortaklaşa kurulan çocuk seks kaçakçılığı aykırısı kar emeli gütmeyen Thorn tarafınca da kullanılan CSAM’i tespit etmek için yaygın bir prosedür. Buna ek olarak Apple, ebeveynlerin aile ağlarındaki çocuklar için isteğe bağlı olarak etkinleştirebilecekleri bir sistem daha sunuyor: Gelen ve giden fotoğrafları cinsel içerikli olabilecek ve var iseyılan olarak bulanıklaştırılacak malzemeler için tarayan İletiler uygulamasındaki aygıt tahlili. Bu sistem, isteğe bağlı olarak, içeriğin görüntülenmesi durumunda hesaba bağlı ebeveynleri bilgilendirmeyi amaçlıyor.
Apple ayrıyeten, bir kullanıcı CSAM’i bildirmekle ilgili soru sorarsa, Siri ve Arama’nın yararlı kaynakları ortaya çıkarmasını sağlıyor; her ikisi de kullanıcılar CSAM ile ilgili sorguları aradığında devreye girerek, malzemenin ziyanlı potansiyeli hakkında bilgilendirme sunuyor ve yardım almak için kaynaklara yönlendiriyor.
Tüm bunlar, Apple’ın kendi açıklamasına bakılırsa, CSAM’i izlemek için yazılımı nasıl entegre edeceğine ve muhtemel uygunsuz fotoğrafları aldıklarında (ve gönderdiklerinde) müdahale ederek çocukları müdafaaya nasıl yardımcı olacağına dair temel çizgileri oluşturuyor. Fakat Apple’ın bir kullanıcının aldığı ya da gönderdiği içeriği otomatik olarak tarama mümkünlüğü, teknoloji uzmanlarının ve saklılık savunucularının kaygılarını de birlikteinde getiriyor.
Bu Özellik Beni Tesirler mi?
CSAM ile ilgili bir Siri sorgulaması yahut çevrimiçi arama yapmazsanız, ya da iCloud hesabınızda kuşkulu bir içerek yoksa sizin için hiç bir şey değişmeyecek. iPhone yahut iPad’inizin hesabı iCloud’da bir aile ile bağlantılıysa ve aygıtınız bu ağda bir çocuk olarak belirlenmişse, müstehcen fotoğraflar aldığınızda ikazlar ve bulanık fotoğraflar goreceksiniz. Aygıtınız bir çocuğa ilişkin olarak bir aile ağına bağlı değilse, sizin için bir daha hiç bir şey değişmeyecek.
Son olarak, iOS 15, iPadOS 15 yahut macOS Monterey’e yükseltme yapmazsanız aygıtınız bu özelliklerden hiç birini almayacak.
Bu uygulama şu an için yalnızca ABD’deki kullanıcılara sunuluyor. Lakin Apple’ın diğer ülkelerde de CSAM özelliğini sunacağına kesin gözüyle bakabiliriz.
Apple Bunu niye Yapıyor?
Ahlaki bir bakış açısıyla Apple, CSAM’ı engelleyerek ebeveynlere, çocuklarını müdafaaları için kuvvetli bir yol sunuyor. Şirketin blog yazısında belirttiği üzere, “bu programın emeli, çocukları korumak.“
Apple, aygıtlarının zımnilik özelliklerini hiç bıkmadan vurgulayan bir şirket. İnançlı uçtan uca şifreli irtibatlar üzere tedbirler sık sık ön plana çıkartılıyor, iOS 14.5’te kullanıma sunulan Uygulama İzleme Takibi üzere özellikler geliştiriliyor. Lakin birebir Apple, yıllar boyunca, görünüşte şirketi daha fazla kapalılık müdafaasına iten birfazlaca davanın da başrol oyuncusu oldu.
Apple yeni özelliğini duyurduktan kısa bir süre daha sonra, güvenlik uzmanları ve saklılık savunucuları doğal olarak alarma geçti. Apple’ın bahsi geçen içerikleri kullanıcı hesaplarında tespit etme halleriyle ilgili telaşlar lisana getirilmeye başlandı.
CSAM tarama özelliği isteğe bağlı üzere görünmüyor – var iseyılan olarak iOS 15’e dahil edilecek ve indirildikten daha sonra işletim sisteminden kapatılamayacak. Tek yol, iCloud’u kapatmak olacak. Bir iCloud hesabına yüklenmedilk evvel bir kullanıcının aygıtındaki fotoğraflar otomatik olarak taranacak. Tarama sırasında makul bir fotoğraf CSAM örnekleri ile eşleşirse, Apple bu imgeyi manuel olarak inceleyecek ve şayet kuşku yanlışsız çıkarsa, kullanıcının hesabı kapatılacak; ayrıntıları kolluk kuvvetleriyle işbirliği yapan Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne (NCMEC) iletilecek.
Apple, kullanıcı bilgilerini şifreli ve şirket çalışanları tarafınca okunamaz biçimde tutmak için epeyce dikkatli davrandığını söylüyor. Ve Apple’a göre sistem, “son derece yüksek bir doğruluk seviyesi sağlayacak biçimde ayarlanmış; muhakkak bir hesabın yanlış bir biçimde işaretlenmesi için yılda bir trilyonda birden daha az ihtimal bulunuyor.”
bir daha de zımnilik savunucularının eli, otomatik tarama niçiniyle pek kuvvetli sayılabilir. Dijital kapalılık konusunda kar hedefi gütmeyen bir kuruluş olan Electronic Frontier Foundation (EFF), Apple’ın teşebbüsüne karşı yayınladığı blog yazısında, “Arka kapı her vakit bir art kapıdır” diye yazdı ve bu otomatik tarama teknolojisini eklemenin bile potansiyel olarak daha geniş erişim suistimallerine kapı açtığını belirtti. Yazıda şu kelamlar dikkat çekiyor: “Apple’ın oluşturduğu dar art kapıyı genişletmek için gereken tek şey, ek içerik cinslerini aramak için makine tahsili parametrelerinin genişletilmesi yahut sırf çocukların değil, her insanın hesaplarının taranması için yapılandırma bayraklarında ince ayar yapılmasıdır.“
Teknoloji sanayisindeki başka dev şirketler de Apple’a reaksiyon gösteriyor. Facebook’un sahip olduğu WhatsApp’ın lideri Will Cathcart da dahil olmak üzere bir epeyce kıymetli isim, Apple’ın otomatik tarama teşebbüsüne karşı reaksiyonlarını açıkça ortaya koyuyor.
Kimi teknoloji uzmanları ise, EFF’nin görüşüne büsbütün katılmadan evvel Apple’ın daha fazla bilgi vermesini bekliyor. Techsponential isimli teknoloji araştırma ve tahlil firmasının kurucusu Avi Greengart, Twitter iletisinde telaşların korkutucu derecede yerinde yahut çok reaksiyon olabileceğini söylüyor ve Apple’ın daha fazla detay sağlaması gerektiğinin altını çiziyor. Ancak CSAM özelliğine epey da uzak görünmüyor: “Bir ebeveyn olarak, iMessage’ın göndermedilk evvel reşit olmayanların cinsel bildirilerini işaretleyeceği fikrini seviyorum; süreci süreksiz olarak yavaşlatan ve çocuklara sonuçları hakkında düşünme talihi veren her şey yeterli bir şeydir.“
CSAM Tespit Özelliği Nedir?
Mevzuyu biraz açalım: Apple, iOS 15 ve iPadOS 15’te, evvelde tanımlanmış CSAM içeriğiyle eşleşip eşleşmediklerini görmek için bir kullanıcının aletinden iCloud’a yüklenen manzaraları otomatik olarak tarayacak yeni bir özellik sunuyor.
Dijital parmak izlerini denetim etmek, web sitesi güvenlik şirketi CloudFare’in 2019’da kurduğu ve Ashton Kutcher ve Demi Moore tarafınca ortaklaşa kurulan çocuk seks kaçakçılığı aykırısı kar emeli gütmeyen Thorn tarafınca da kullanılan CSAM’i tespit etmek için yaygın bir prosedür. Buna ek olarak Apple, ebeveynlerin aile ağlarındaki çocuklar için isteğe bağlı olarak etkinleştirebilecekleri bir sistem daha sunuyor: Gelen ve giden fotoğrafları cinsel içerikli olabilecek ve var iseyılan olarak bulanıklaştırılacak malzemeler için tarayan İletiler uygulamasındaki aygıt tahlili. Bu sistem, isteğe bağlı olarak, içeriğin görüntülenmesi durumunda hesaba bağlı ebeveynleri bilgilendirmeyi amaçlıyor.
Apple ayrıyeten, bir kullanıcı CSAM’i bildirmekle ilgili soru sorarsa, Siri ve Arama’nın yararlı kaynakları ortaya çıkarmasını sağlıyor; her ikisi de kullanıcılar CSAM ile ilgili sorguları aradığında devreye girerek, malzemenin ziyanlı potansiyeli hakkında bilgilendirme sunuyor ve yardım almak için kaynaklara yönlendiriyor.
Tüm bunlar, Apple’ın kendi açıklamasına bakılırsa, CSAM’i izlemek için yazılımı nasıl entegre edeceğine ve muhtemel uygunsuz fotoğrafları aldıklarında (ve gönderdiklerinde) müdahale ederek çocukları müdafaaya nasıl yardımcı olacağına dair temel çizgileri oluşturuyor. Fakat Apple’ın bir kullanıcının aldığı ya da gönderdiği içeriği otomatik olarak tarama mümkünlüğü, teknoloji uzmanlarının ve saklılık savunucularının kaygılarını de birlikteinde getiriyor.
Bu Özellik Beni Tesirler mi?
CSAM ile ilgili bir Siri sorgulaması yahut çevrimiçi arama yapmazsanız, ya da iCloud hesabınızda kuşkulu bir içerek yoksa sizin için hiç bir şey değişmeyecek. iPhone yahut iPad’inizin hesabı iCloud’da bir aile ile bağlantılıysa ve aygıtınız bu ağda bir çocuk olarak belirlenmişse, müstehcen fotoğraflar aldığınızda ikazlar ve bulanık fotoğraflar goreceksiniz. Aygıtınız bir çocuğa ilişkin olarak bir aile ağına bağlı değilse, sizin için bir daha hiç bir şey değişmeyecek.
Son olarak, iOS 15, iPadOS 15 yahut macOS Monterey’e yükseltme yapmazsanız aygıtınız bu özelliklerden hiç birini almayacak.
Bu uygulama şu an için yalnızca ABD’deki kullanıcılara sunuluyor. Lakin Apple’ın diğer ülkelerde de CSAM özelliğini sunacağına kesin gözüyle bakabiliriz.
Apple Bunu niye Yapıyor?
Ahlaki bir bakış açısıyla Apple, CSAM’ı engelleyerek ebeveynlere, çocuklarını müdafaaları için kuvvetli bir yol sunuyor. Şirketin blog yazısında belirttiği üzere, “bu programın emeli, çocukları korumak.“
Apple, aygıtlarının zımnilik özelliklerini hiç bıkmadan vurgulayan bir şirket. İnançlı uçtan uca şifreli irtibatlar üzere tedbirler sık sık ön plana çıkartılıyor, iOS 14.5’te kullanıma sunulan Uygulama İzleme Takibi üzere özellikler geliştiriliyor. Lakin birebir Apple, yıllar boyunca, görünüşte şirketi daha fazla kapalılık müdafaasına iten birfazlaca davanın da başrol oyuncusu oldu.
- Uygulama İzleme Takibi Nedir, Ne İşe Fayda?
Apple yeni özelliğini duyurduktan kısa bir süre daha sonra, güvenlik uzmanları ve saklılık savunucuları doğal olarak alarma geçti. Apple’ın bahsi geçen içerikleri kullanıcı hesaplarında tespit etme halleriyle ilgili telaşlar lisana getirilmeye başlandı.
CSAM tarama özelliği isteğe bağlı üzere görünmüyor – var iseyılan olarak iOS 15’e dahil edilecek ve indirildikten daha sonra işletim sisteminden kapatılamayacak. Tek yol, iCloud’u kapatmak olacak. Bir iCloud hesabına yüklenmedilk evvel bir kullanıcının aygıtındaki fotoğraflar otomatik olarak taranacak. Tarama sırasında makul bir fotoğraf CSAM örnekleri ile eşleşirse, Apple bu imgeyi manuel olarak inceleyecek ve şayet kuşku yanlışsız çıkarsa, kullanıcının hesabı kapatılacak; ayrıntıları kolluk kuvvetleriyle işbirliği yapan Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne (NCMEC) iletilecek.
Apple, kullanıcı bilgilerini şifreli ve şirket çalışanları tarafınca okunamaz biçimde tutmak için epeyce dikkatli davrandığını söylüyor. Ve Apple’a göre sistem, “son derece yüksek bir doğruluk seviyesi sağlayacak biçimde ayarlanmış; muhakkak bir hesabın yanlış bir biçimde işaretlenmesi için yılda bir trilyonda birden daha az ihtimal bulunuyor.”
bir daha de zımnilik savunucularının eli, otomatik tarama niçiniyle pek kuvvetli sayılabilir. Dijital kapalılık konusunda kar hedefi gütmeyen bir kuruluş olan Electronic Frontier Foundation (EFF), Apple’ın teşebbüsüne karşı yayınladığı blog yazısında, “Arka kapı her vakit bir art kapıdır” diye yazdı ve bu otomatik tarama teknolojisini eklemenin bile potansiyel olarak daha geniş erişim suistimallerine kapı açtığını belirtti. Yazıda şu kelamlar dikkat çekiyor: “Apple’ın oluşturduğu dar art kapıyı genişletmek için gereken tek şey, ek içerik cinslerini aramak için makine tahsili parametrelerinin genişletilmesi yahut sırf çocukların değil, her insanın hesaplarının taranması için yapılandırma bayraklarında ince ayar yapılmasıdır.“
Teknoloji sanayisindeki başka dev şirketler de Apple’a reaksiyon gösteriyor. Facebook’un sahip olduğu WhatsApp’ın lideri Will Cathcart da dahil olmak üzere bir epeyce kıymetli isim, Apple’ın otomatik tarama teşebbüsüne karşı reaksiyonlarını açıkça ortaya koyuyor.
Kimi teknoloji uzmanları ise, EFF’nin görüşüne büsbütün katılmadan evvel Apple’ın daha fazla bilgi vermesini bekliyor. Techsponential isimli teknoloji araştırma ve tahlil firmasının kurucusu Avi Greengart, Twitter iletisinde telaşların korkutucu derecede yerinde yahut çok reaksiyon olabileceğini söylüyor ve Apple’ın daha fazla detay sağlaması gerektiğinin altını çiziyor. Ancak CSAM özelliğine epey da uzak görünmüyor: “Bir ebeveyn olarak, iMessage’ın göndermedilk evvel reşit olmayanların cinsel bildirilerini işaretleyeceği fikrini seviyorum; süreci süreksiz olarak yavaşlatan ve çocuklara sonuçları hakkında düşünme talihi veren her şey yeterli bir şeydir.“