Eski Google araştırmacısı
Uzman uyarıyor: AI korkusu neden yanlış yöne gidiyor – ve gerçekten korkmamız gereken şey
İyi yapay zeka, kötü yapay zeka: ChatGPT gibi veri modellerinin gerçekte hangi veri modelleri ile çalıştığı ve bunun nereye varacağı bilinmediği için birçok kişi net kurallara ihtiyaç olduğuna inanıyor.
© marvinh / Getty Images
Meredith Whittaker yıllar önce yapay zekanın da riskler içerdiği konusunda uyarıda bulunmuştu. Son gelişmeler korkularını değiştirmedi. Eski işvereni gibi şirketlerin bununla nasıl başa çıktığı konusunda özellikle endişeli.
Bu, insanın yapay zekaya karşı en temel korkusudur: Yazılımın bir gün yaratıcılarını gölgede bırakacağı fikri. Ve onları kontrol altına alır. Ancak eski Google araştırmacısı, teknolojinin çok daha somut risklerini görüyor. Ve şirketlerin bununla başa çıkma şekli.
“Bana çocukken hayalet hikayelerini nasıl anlattığınızı hatırlatıyor, çok fazla duygusal ağırlığı olan bir şey. Birdenbire herkes dehşete kapıldı ve buna tepki verdi. Ve sonra buna inanmamak zor,” dedi Fast Company ile yaptığı konuşmada. ” yapay zeka tarafından ele geçirilme korkusuna bakışlarını özetliyor. İnsanlar teknolojiye sezgisel olarak yanıt veriyor çünkü teknoloji kendisini hevesle dinleyen bir muhatap olarak sunuyor. “Ve bu, onda insani bir şey görmek için bir tür hüsnükuruntu yaratıyor” diye inanıyor.
Google’da Direniş
Whittaker, bir anlaşmazlığın ardından Google’dan ayrıldı. 2017 yılında grup, “Maven” proje adı altında ABD ordusu için yapay zeka tabanlı hedef sistemler geliştirmek istedi. Whittaker ve bazı meslektaşları, planlara yüksek sesle karşı çıktılar. Ve Google nihayetinde projeden çekilmiş olsa da, Whittaker şirketten ayrılması için kendisine baskı yapıldığını söylüyor. “Bunun olacağını biliyordum” diye hatırlıyor. “Parayla bu şekilde uğraşmazsın ve kovulmazsın.” Google’a göre şirketten gönüllü olarak ayrıldı.
Yine de, başka bir yapay zeka araştırmacısının şirketten ayrılması konusunda şaşırtıcı derecede eleştirel. AI uzmanı Geoffrey Hinton bu hafta şirketten ayrıldığını duyurdu. Ve tehlikeler yüzünden hayatı boyunca yaptığı işten pişmanlık duymak (buradan daha fazla bilgi edinin). Teknolojiye ve onun tehlikelerine bakışının önemli ölçüde değiştiğini açıkladı. “Ya sistemlerde olanlar aslında beynimizde olanlardan çok daha iyiyse?” diye sordu, sürekli hızlanan gelişmeye bakarak. Ve şaşırtıcı bir şekilde yasal sınırlar için çağrıda bulundu. “Kontrol edip edemeyeceğimizi bilmeden bunun büyümesine izin vermemeliyiz.”
sistemdeki dezavantaj
Whittaker şaşırtıcı bir şekilde bu ifadeleri eleştiriyor. Hinton hakkında soru sorulduğunda, “Birinin yaşlılığında aniden bir pişmanlık turuna çıkması beni hayal kırıklığına uğratıyor” diye itiraf ediyor. Kendisinin de belirttiği gibi, ikisi birbirlerini çok iyi tanımasalar da aynı anda Google’da çalışmışlardı. Hayal kırıklığını basit bir gerçekle haklı çıkarıyor: Hinton, kendisi ve diğer meslektaşları yıllar önce teknolojinin tehlikelerine dikkat çektiğinde sessiz kaldı.
Askeri kullanıma ek olarak, Whittaker ve meslektaşı Timnit Gebru, öncelikle programlara programlanmış adaletsizliklere defalarca işaret etmekle ilgileniyorlardı. Bu eleştirmenler, yazılım ağırlıklı olarak beyaz adamlar tarafından geliştirildiği için yapay zeka sistemlerinin toplumda var olan adaletsizlikleri de yansıttığını savundu. Aslında, bu tür farklılıklar tekrar tekrar keşfedilebilir, örneğin koyu tenli insanlar yüz tanıma programları tarafından daha az tanındığında veya görüntü oluşturma programları kadınları erkeklerden gözle görülür şekilde daha cinselleştirilmiş olarak tasvir ettiğinde. Eleştirmenler, AI bu farklılıkların normal ve hatta doğru olduğunu öğrenirse ortaya çıkan sosyal sorunların daha da büyüyeceğinden korkuyor.
Diğer endişeler
Whittaker, “Google’a özgü değil,” diye belirtiyor. AI’nın gelişimi boyunca, etkilenenler ve özellikle sıklıkla kadınlar bu soruna dikkat çekti. Ve göz ardı edildi. Hinton’un ifadelerine alaycı bir şekilde “Ama AI’nın babası nihayet bu konuda bir şey söylediğinde, bu doğru olmalı” diyor. 1970’lerden beri teknolojiyi araştıran uzman, genellikle “AI’nın atası” olarak anılır.
“Genç Yaş (d)”
Sanatçı, AI sayesinde Harry Styles gibi süper yıldızların yaşlılıkta nasıl görünebileceğini gösteriyor
Whittaker şu anda çok akıllı yapay zeka hakkındaki uyarılarını abartılı buluyor. “Hala bu modellerin olduğuna dair hiçbir kanıtımız yok. […] bir bilinç kıvılcımı olsun,” korkuyu bir kenara itiyor. “Yine de fişleri çekebilir veya sunucu odalarını doldurabiliriz.”
Kontrol kimde?
“Savaş Oyunları filmindeki gibi varsayımsal sorunlardan korku yaratarak dikkatimizi dağıtıyor, ancak bunlar çoğunlukla uydurulmuş” diyor. “Ama gerçek, gerçekten var olan sorunları çözmek çok daha zor.” View, en büyük riski başka bir yerde görüyor: “Teknoloji birkaç, çok güçlü şirketin elinde. Ve nihayetinde nasıl yaratıldıkları, neler yapabilecekleri ve kime hizmet edecekleri konusunda kararları onlar veriyor,” diye açıklıyor View. “Ve bu şirketlerin çıkarlarına bakarsak, işlerin nereye gidebileceği konusunda oldukça iyi bir fikir edinirsiniz,” diye fısıldıyor. “Ne için kullanıldığı, kimin kullandığı ve gerçek hasarı önleme şansının ne olduğu.”
Endüstri ve politikacılar da yapay zekanın yaratılmasına yönelik spesifikasyonların yalnızca şirketlere bırakılmaması gerektiğinin giderek daha fazla farkına varıyorlar. Mart ayında bir açık mektupta, çok sayıda Silikon Vadisi devi yapay zeka için geliştirmenin durdurulması çağrısında bulundu ve buna karşılık gelen siyasi girişimler ABD ve AB’de hayata geçiriliyor. Whittaker’ın eski işvereni Google, ihtiyatlı davranarak, Çarşamba gününden beri dünya çapında kullanıma sunulan AI sohbet robotu Bard’ı AB’de bile sunmuyor.
Hinton’ın endişelerini yalnızca Whittaker’dan ayrıldıktan sonra alenen dile getirme yaklaşımının, zorluklar karşısında çok az kazanımı var. “Çalışanların bir araya gelip ‘Bunu yapmayacağız’ demelerinde bir güç var. Ama bu ancak şirketteki insanlar da oradaysa mümkün.”
Kaynak: Hızlı Şirket
#Konular
Uzman uyarıyor: AI korkusu neden yanlış yöne gidiyor – ve gerçekten korkmamız gereken şey
İyi yapay zeka, kötü yapay zeka: ChatGPT gibi veri modellerinin gerçekte hangi veri modelleri ile çalıştığı ve bunun nereye varacağı bilinmediği için birçok kişi net kurallara ihtiyaç olduğuna inanıyor.
© marvinh / Getty Images
Meredith Whittaker yıllar önce yapay zekanın da riskler içerdiği konusunda uyarıda bulunmuştu. Son gelişmeler korkularını değiştirmedi. Eski işvereni gibi şirketlerin bununla nasıl başa çıktığı konusunda özellikle endişeli.
Bu, insanın yapay zekaya karşı en temel korkusudur: Yazılımın bir gün yaratıcılarını gölgede bırakacağı fikri. Ve onları kontrol altına alır. Ancak eski Google araştırmacısı, teknolojinin çok daha somut risklerini görüyor. Ve şirketlerin bununla başa çıkma şekli.
“Bana çocukken hayalet hikayelerini nasıl anlattığınızı hatırlatıyor, çok fazla duygusal ağırlığı olan bir şey. Birdenbire herkes dehşete kapıldı ve buna tepki verdi. Ve sonra buna inanmamak zor,” dedi Fast Company ile yaptığı konuşmada. ” yapay zeka tarafından ele geçirilme korkusuna bakışlarını özetliyor. İnsanlar teknolojiye sezgisel olarak yanıt veriyor çünkü teknoloji kendisini hevesle dinleyen bir muhatap olarak sunuyor. “Ve bu, onda insani bir şey görmek için bir tür hüsnükuruntu yaratıyor” diye inanıyor.
Google’da Direniş
Whittaker, bir anlaşmazlığın ardından Google’dan ayrıldı. 2017 yılında grup, “Maven” proje adı altında ABD ordusu için yapay zeka tabanlı hedef sistemler geliştirmek istedi. Whittaker ve bazı meslektaşları, planlara yüksek sesle karşı çıktılar. Ve Google nihayetinde projeden çekilmiş olsa da, Whittaker şirketten ayrılması için kendisine baskı yapıldığını söylüyor. “Bunun olacağını biliyordum” diye hatırlıyor. “Parayla bu şekilde uğraşmazsın ve kovulmazsın.” Google’a göre şirketten gönüllü olarak ayrıldı.
Yine de, başka bir yapay zeka araştırmacısının şirketten ayrılması konusunda şaşırtıcı derecede eleştirel. AI uzmanı Geoffrey Hinton bu hafta şirketten ayrıldığını duyurdu. Ve tehlikeler yüzünden hayatı boyunca yaptığı işten pişmanlık duymak (buradan daha fazla bilgi edinin). Teknolojiye ve onun tehlikelerine bakışının önemli ölçüde değiştiğini açıkladı. “Ya sistemlerde olanlar aslında beynimizde olanlardan çok daha iyiyse?” diye sordu, sürekli hızlanan gelişmeye bakarak. Ve şaşırtıcı bir şekilde yasal sınırlar için çağrıda bulundu. “Kontrol edip edemeyeceğimizi bilmeden bunun büyümesine izin vermemeliyiz.”
sistemdeki dezavantaj
Whittaker şaşırtıcı bir şekilde bu ifadeleri eleştiriyor. Hinton hakkında soru sorulduğunda, “Birinin yaşlılığında aniden bir pişmanlık turuna çıkması beni hayal kırıklığına uğratıyor” diye itiraf ediyor. Kendisinin de belirttiği gibi, ikisi birbirlerini çok iyi tanımasalar da aynı anda Google’da çalışmışlardı. Hayal kırıklığını basit bir gerçekle haklı çıkarıyor: Hinton, kendisi ve diğer meslektaşları yıllar önce teknolojinin tehlikelerine dikkat çektiğinde sessiz kaldı.
Askeri kullanıma ek olarak, Whittaker ve meslektaşı Timnit Gebru, öncelikle programlara programlanmış adaletsizliklere defalarca işaret etmekle ilgileniyorlardı. Bu eleştirmenler, yazılım ağırlıklı olarak beyaz adamlar tarafından geliştirildiği için yapay zeka sistemlerinin toplumda var olan adaletsizlikleri de yansıttığını savundu. Aslında, bu tür farklılıklar tekrar tekrar keşfedilebilir, örneğin koyu tenli insanlar yüz tanıma programları tarafından daha az tanındığında veya görüntü oluşturma programları kadınları erkeklerden gözle görülür şekilde daha cinselleştirilmiş olarak tasvir ettiğinde. Eleştirmenler, AI bu farklılıkların normal ve hatta doğru olduğunu öğrenirse ortaya çıkan sosyal sorunların daha da büyüyeceğinden korkuyor.
Diğer endişeler
Whittaker, “Google’a özgü değil,” diye belirtiyor. AI’nın gelişimi boyunca, etkilenenler ve özellikle sıklıkla kadınlar bu soruna dikkat çekti. Ve göz ardı edildi. Hinton’un ifadelerine alaycı bir şekilde “Ama AI’nın babası nihayet bu konuda bir şey söylediğinde, bu doğru olmalı” diyor. 1970’lerden beri teknolojiyi araştıran uzman, genellikle “AI’nın atası” olarak anılır.
“Genç Yaş (d)”
Sanatçı, AI sayesinde Harry Styles gibi süper yıldızların yaşlılıkta nasıl görünebileceğini gösteriyor
Whittaker şu anda çok akıllı yapay zeka hakkındaki uyarılarını abartılı buluyor. “Hala bu modellerin olduğuna dair hiçbir kanıtımız yok. […] bir bilinç kıvılcımı olsun,” korkuyu bir kenara itiyor. “Yine de fişleri çekebilir veya sunucu odalarını doldurabiliriz.”
Kontrol kimde?
“Savaş Oyunları filmindeki gibi varsayımsal sorunlardan korku yaratarak dikkatimizi dağıtıyor, ancak bunlar çoğunlukla uydurulmuş” diyor. “Ama gerçek, gerçekten var olan sorunları çözmek çok daha zor.” View, en büyük riski başka bir yerde görüyor: “Teknoloji birkaç, çok güçlü şirketin elinde. Ve nihayetinde nasıl yaratıldıkları, neler yapabilecekleri ve kime hizmet edecekleri konusunda kararları onlar veriyor,” diye açıklıyor View. “Ve bu şirketlerin çıkarlarına bakarsak, işlerin nereye gidebileceği konusunda oldukça iyi bir fikir edinirsiniz,” diye fısıldıyor. “Ne için kullanıldığı, kimin kullandığı ve gerçek hasarı önleme şansının ne olduğu.”
Endüstri ve politikacılar da yapay zekanın yaratılmasına yönelik spesifikasyonların yalnızca şirketlere bırakılmaması gerektiğinin giderek daha fazla farkına varıyorlar. Mart ayında bir açık mektupta, çok sayıda Silikon Vadisi devi yapay zeka için geliştirmenin durdurulması çağrısında bulundu ve buna karşılık gelen siyasi girişimler ABD ve AB’de hayata geçiriliyor. Whittaker’ın eski işvereni Google, ihtiyatlı davranarak, Çarşamba gününden beri dünya çapında kullanıma sunulan AI sohbet robotu Bard’ı AB’de bile sunmuyor.
Hinton’ın endişelerini yalnızca Whittaker’dan ayrıldıktan sonra alenen dile getirme yaklaşımının, zorluklar karşısında çok az kazanımı var. “Çalışanların bir araya gelip ‘Bunu yapmayacağız’ demelerinde bir güç var. Ama bu ancak şirketteki insanlar da oradaysa mümkün.”
Kaynak: Hızlı Şirket
#Konular