Felaket Teorilerine Bir Yenisi Daha Eklendi: Yapay Zekalar İnsanlığın Sonunu Getirebilir mi?

ChatGPT ve onu takiben GPT-4 gibi yapay zekalar gündemden düşmek bilmiyor. Tabii bu dil modelleri sadece ne kadar iyi çalıştıklarıyla değil felaket teorileriyle de çokça anılıyor. Özellikle son dönemde bazı teorisyenlerin yapay zekaların insanlığın sonunu getireceğine dair iddiaları kafaları karıştıracak ölçüde tutarlı! Gelin yapay zekanın risklerini ve felaket getirme olasılıklarını beraber inceleyelim… ?

Kaynak: https://www.bloomberg.com/opinion/art…

Son zamanlarda yapay zekalar hiç olmadığı kadar gündemde biliyorsunuz ki… Ve sadece faydaları değil felaket getirme olasılığı da epey konuşuluyor.

Bu bakımdan son aylarda öne çıkan bir isim var: Eliezer Yudkowsky. Kendisi yapay zekaların insanoğlunun hatta biyolojik hayatın sonunu getireceğine dair yorumlar yapan biri. Böyle deyince boş birinden bahsetmediğimizi de belirtelim. Yapay zeka üzerine araştırmalar yapan Machine Intelligence Research Institute adlı kar amacı gütmeyen bir kuruluşun da başkanı.

Yudkowsky yapay zekaların tehlikesiyle ilgili ilk kez konuşmuyor, daha önce de ortaya attığı teoriler vardı.

Şimdilerde geçmişte yaptığı yorumları ilerleterek yeni bir noktaya taşımış durumda. Ona göre insanlık kendisinden daha zeki bir yapay zeka yaratarak ölümcül bir yola girdi. ‘Bizim istediklerimizi yapmayan, bize ya da herhangi bir duygulu varlığa değer vermeyen makineler… İnsanlık kendisinden kat kat zeki olan insanüstü bir akla karşı ancak bozguna uğrayabilir.’

Ona göre böyle bir yapay zeka, kolaylıkla internetten kaçıp kendisine benzeyen yapay formlar inşa edebilir.

Dolayısıyla amacı da ancak biyolojik hayata savaş açmak olacaktır! Yudkowsky bu teorisini aktardıktan sonra felaketi önlemek için de tek bir çaremizin olduğunu söylüyor: Yapay zeka teknolojisinin gelişimini küresel çapta ve tamamen ertelemek.

Yuskowsky’nin bu önerisinden kaynaklanmasa da bunu takiben Elon Musk ve Steve Wozniak gibi teknoloji devleri yapay zeka çalışmalarına ara verileceğini duyurmuştu.

Onların endişesi de Yudkowsky ile benzerdi; yapay zeka çok hızlı gelişiyor ve bu da tehlike arz ediyordu. Ancak yayınladıkları açık mektupta sadece 6 aylık bir erteleme söz konusu olduğu için Yudkowsky ve benzer düşüncedeki teorisyenleri bu adımlar tatmin etmiyor.

Bu durumu aslında geçmişteki olaylara bakarak da inceleyebiliriz. Mesela nükleer silahlar ve biyolojik savaş kavramlarının ortaya çıktığı zamanlar mükemmel örnekler.

O dönemlerde de nükleer silahların insanlığın sonunu getirecek kadar olmasa da geniş ölçekli zarar vereceği birçok insan tarafından öngörülmüştü. Hatta bu konuda uluslararası olarak önlem alınmak istenmiş ama çalışmaları durdurmak için verilen ‘6 aylık süre’ hükümetleri silah geliştirmekten alıkoymamıştı.

Dolayısıyla yapay zeka konusunda da sadece böyle kısa süreli ara vermenin işe yaramayacağına dair argümanlar güçlenmiş oluyor.

Tabii birkaç kişinin büyük şirketlere çalışmaları durdurma çağrısı yapması, nükleer silahlar konusunda olduğu gibi pek de etkili olacak gibi görünmüyor. Ayrıca bu ölümcül silahlar devlet elinde geliştiriliyordu ancak yapay zekalar tamamen özel sektörün bünyesinde. Yani araştırmaları durdurmaya çalışmak çok daha zor.

Zaten GenFab adlı teknoloji şirketinin kurucularından Matt Parlmer gibi isimler Yudkowsky ve benzer teorisyenleri fazla duygusal olmakla suçluyor.

‘Anti-yapay zeka tarikat üyeleri’ olarak nitelendirdiği teorisyenlerin ‘sektörün temel teknik unsurlarından bile anlamazken boylarını aşan işler’ hakkında konuştuklarını belirtiyor.

Parlmer’a ek olarak Atlantic şirketinin sahibi Nicholas Thompson da Yudkowsky’nin riskleri fazla abarttığını düşünüyor.

‘Denemeye ve görmeye bir şans vermeliyiz. Bizi mutlu eden havalı şeyler inşa ederken işin derinliklerini de keşfedeceğiz.’

Ayrıca bir Bloomberg yazarı şöyle bir sorunu da dile getiriyor;

‘O zaman 2006 yılında sosyal medyanın tehlikelerinden bahsederken de bütün platformları kapatsaydık. Kısa süreli ertelemeler için yeterli bilgiye sahip değilken böyle bir adım atmak mantıksız. Ayrıca ABD’li şirketler buna ikna edilse bile Çin’in bu kurala uyacağı ne malum?’

Tüm bu tartışmaları bir tarafa bırakırsak yapay zekalar hepten kötü değil. Endişe yaratan tür, ChatGPT ve gelişmiş versiyonu olan GPT-4 gibi dil modelleri.

Sohbet botları olarak ortaya çıkan bu yapay zeka modelleri insansı olmaları için özenle geliştirilen teknolojiler. Özellikle de GPT-4 öncülüne kıyasla bu konuda çok daha başarılı. Son verilere göre GPT-4; matematik, hukuk, tıp gibi çeşitli alanlarda karmaşık problemleri insan benzeri bir performansla çözmeyi başarabiliyor.

Bu noktada dil modellerinin yanlış bilgi yayma ve hatta kendi kendine bilgi uydurma gibi sorunlar yaratabileceğinden geliştiriciler de haberdar.

Ancak Yudkowsky’nin teorilerinin yine de abartı olduğu düşünülüyor. Bunu düşünen kesimin de genelde yapay zeka teknolojisinin ileri gelen isimleri olması insanı tedirgin etmiyor değil!

Sonuçta belki de ünlü felaket teorilerinden biri olan uzaylı istilasından önce biz kendi uzaylılarımızı yaratmış olabiliriz.

Bu durumda uzaydan gelenler değil kendi başımıza sardığımız insanüstü zekaya sahip makineler sonumuzu getirebilir. Bu teoriler insanı düşündürse de şimdilik bir ‘Terminatör’ yaratma ihtimali yine de epey uzak!

Bu konuda siz neler düşünüyorsunuz? Yorumlarda buluşalım! ?

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir