SIRI'den sürücüsüz arabalara kadar, yapay zeka (AI) hızla ilerliyor. Bilim kurgu, AI'yı genellikle insan benzeri özelliklere sahip robotlar olarak tasvir ederken, AI, Google'ın arama algoritmalarında IBM'in Watson'ına ve otonom silahlara kadar her şeyi kapsayabilir.
Günümüzde yapay zekanın bir görevi (örneğin, yalnızca yüz tanıma veya yalnızca internet aramaları veya yalnızca araba sürmek) gerçekleştirmek üzere tasarlandığından, dar AI (veya zayıf AI) olarak bilinir. Bununla birlikte, birçok araştırmacının uzun vadeli hedefi, genel AI (YGZ veya güçlü AI) oluşturmaktır.Dar AI, satranç oynamak veya denklemleri çözmek gibi belirli görevi ne olursa olsun insanlardan daha iyi performans gösterse de, AGI neredeyse her bilişsel görevde insanlardan daha iyi performans gösterecektir.
· YAPAY ZEKA NASIL TEHLİKELİ OLABİLİR?
Çoğu araştırmacı, süperzeki bir yapay zekanın sevgi veya nefret gibi insani duygular sergilemesinin muhtemel olmadığını ve yapay zekanın kasıtlı olarak iyi niyetli ya da kötü niyetli olmasını beklemek için hiçbir neden olmadığı konusunda hemfikirdir. Bunun yerine, uzmanlar yapay zekanın nasıl bir risk haline gelebileceğini düşünürken büyük olasılıkla bu iki senaryoyu düşünüyor:
1. AI, yıkıcı bir şey yapmak için programlanmıştır: Otonom silahlar, öldürmeye programlanmış yapay zeka sistemleridir. Yanlış kişinin elinde bu silahlar kolaylıkla toplu kayıplara neden olabilir. Ayrıca, bir yapay zeka silahlanma yarışı istemeden de olsa kitlesel kayıplara yol açan bir yapay zeka savaşına yol açabilir. Düşman tarafından engellenmekten kaçınmak için, bu silahların basitçe kapatılması son derece zor olacak şekilde tasarlanacaktı, böylece insanlar makul bir şekilde böyle bir durumun kontrolünü kaybedebilirdi. Bu risk, dar AI ile bile mevcut olan ancak AI zekası ve özerklik seviyeleri arttıkça büyüyen bir risktir.
2. AI faydalı bir şey yapmak için programlanmıştır, ancak amacına ulaşmak için yıkıcı bir yöntem geliştirir: Bu, AI'nın hedeflerini bizimkilerle tam olarak ayarlayamadığımızda olabilir, ki bu çarpıcı bir şekilde zordur.İtaatkar bir akıllı arabadan sizi havaalanına mümkün olduğunca çabuk götürmesini isterseniz, sizi oraya helikopterler tarafından kovalanıp kusmuk içinde, istediğinizi değil, tam anlamıyla istemediğinizi yaparak götürebilir. Süper akıllı bir sistem, iddialı bir jeomühendislik projesiyle görevlendirilirse, ekosistemimize bir yan etki olarak zarar verebilir ve insanların onu durdurma girişimlerini karşılanabilecek bir tehdit olarak görebilir.
Bu örneklerin gösterdiği gibi, gelişmiş AI ile ilgili endişe kötü niyet değil, yeterliliktir. Süper akıllı bir yapay zeka, hedeflerine ulaşmada son derece iyi olacak ve bu hedefler bizimkilerle uyumlu değilse, bir sorunumuz var demektir. Muhtemelen, kötü niyetli olarak karıncaların üzerine basan kötü bir karınca düşmanı değilsiniz, ancak bir hidroelektrik yeşil enerji projesinden sorumluysanız ve bölgede üstüne basılmaması gereken bir karınca yuvası varsa, karıncalar için çok kötü. AI güvenlik araştırmasının temel amacı, insanlığı asla bu karıncaların yerine koymamaktır.
Comments