Yapay zeka nükleer bombalardan çok daha tehlikeli!
Mart 2018’de Teksas’ta bir teknoloji konferansında Tesla ve SpaceX’in kurucusu Elon Musk dostane bir şekilde dünyaya şu uyarıyı yaptı: “Sözlerimi not edin” dedi, “Yapay Zeka nükleer bombalardan çok daha tehlikeli!”
Konu özellikle teknoloji olduğunda Musk, yapay zekâ hakkındaki önsezilerini farklı şekillerde aynı açık sözlülükle başka ortamlarda da yineliyor ve sözlerine şunu da ekliyor: “Neredeyse herkesin bildiğinden çok daha fazlasını yapabilir ve gelişme hızı katlanarak artıyor.”
Ancak Musk, şüpheci görüşlerinde yalnız değil. Rahmetli fizikçi Stephen Hawking de bir zamanlar Portekiz’de yaptığı bir konuşmasında, “Yapay zekanın hızlı gelişimi sıkı ve etik olarak kontrol edilmedikçe felaket olabilir” demişti.
Musk konuşmasına şöyle devam ediyor: “Potansiyel risklere nasıl hazırlanacağımızı ve bunlardan nasıl kaçınacağımızı öğrenemezsek, yapay zekâ uygarlığımızın tarihindeki en kötü olay olabilir.” İsteyenler Elon Musk’ın bu konuşmasını aşağıdaki linkten dinleyebilirler.
Elon Musk’s Last Warning About Artificial Intelligence
Yaşamın Geleceği Enstitüsü’nden
(https://futureoflife.org/ ) Stuart Armstrong da yapay zekadan “yok olma riski” olarak bahsediyor ve “Nükleer savaşın bile yıkım açısından farklı bir seviyede olduğunu çünkü gezegenin sadece nispeten küçük bir bölümünü riske sokacağını ama akıllı hale gelen teknolojinin bütün dünyayı riske sokabileceğini” savunuyor.
Bilgisayarlar kendilerini etkin bir şekilde yeniden programlayabildiğinde “teknolojik tekillik” veya “zeka patlaması” olarak adlandırılan bir duruma yol açarak kendilerini başarılı bir şekilde geliştirebildikleri anda artıkmakinelerin insanları geride bırakma riskleri göz ardı edilemez boyuta ulaşmış oluyor.
Hatta “westworld” dizisi tam da bu konuyu işler. Zenginlerin eğlenceli vakit geçirmeleri için kurgusal bir vahşi batı temasıyla tasarlanmış bir kasabada kullanılan yapay zekâ robotlar bir süre sonra zekâ patlaması yaşarlar ve birtakım sorunlar çıkmaya başlar. Seyretmeyenlere önerilir.
İçerik Başlıkları
ToggleYapay Zekanın Zararları
- Otomasyon kaynaklı işsizlik oranının artması
- Duygusuzluğun artması
- İnsanın tembelleşmesi
- Bilgi, insanın önüne hazır geldikçe proaktifliğin, cesaret ve yaratıcılığın azalması
- Daha çok şey, yapay zekâ tarafından yapıldıkça ve yönetildikçe, insanın daha çok makineleşmesi
- Etik ve ahlak kayıpları
- Gizlilik ihlalleri
- Deepfake sorunu
- Kötü veya yanlış verilerin neden olduğu algoritmik önyargı
- Sosyoekonomik eşitsizlik
- Piyasa oynaklığı
- Silah otomasyonu
Yapay Zekanın Tehlikeleri
Yapay zekâ daha sofistike ve her yerde bulunur hale geldikçe, mevcut ve gelecekteki tuzaklara karşı uyarı sesleri de yükseliyor. İster belirli işlerin artan otomasyonu, ister modası geçmiş bilgi kaynaklarından kaynaklanan cinsiyet ve ırksal önyargı sorunları, istersek de insan gözetimi olmadan çalışan otonom silahlar olsun risk yükseliyor.
Yıkıcı süper zeka – yani insanlar tarafından yaratılan ama bizim kontrolümüzden kaçarak ortalığı kasıp kavuran yapay zeka – kendi başına ayrı bir kategoride ilerliyor. Yani sürekli ortaya çıkan varoluşsal bir korku kaynağı ile karşı karşıyayız!
Yakın Zamandaki Tehlikeler
İş Otomasyonu
İş otomasyonu genellikle en acil endişe olarak görülüyor. Artık yapay zekanın belirli iş türlerinin yerini alıp almayacağı değil, ne dereceye kadar olacağı konusu konuşuluyor. Pek çok endüstride – özellikle de çalışanları öngörülebilir ve tekrarlı işleri yapanlarda– yapay zekanın kullanımı artıyor. 2019’da yapılan bir araştırmada “perakende satış ve pazar analizinden, üretim ve depo işçiliğine kadar” bir çok konunun çok geçmeden görevlerinin en az yüzde 70’i yapay zeka tarafından yapılacağı paylaşılmıştı.
Yapay zekâ robotları daha akıllı ve daha hünerli hale geldikçe aynı görevler daha az insan gerektirecek. Diğer bir yandan yapay zekanın bu hızlı gelişimi ile iş yaşamında yeni meslekler oluşacaksa da (veri dedektifi, bilgi işlem destekleyici, yapay zekâ iş geliştirme yöneticisi, insan – makine ekip yöneticisi vb.), insanların eğitim ve yetkinliklerinde aynı gelişim hızını gösterememeleri sebebiyle birçok pozisyon onlar için erişilemez olacaktır.
Siyasi yöneticiler ve eğitimciler maalesef çoğu zaman teknoloji konusunda yeterli bilgiye sahip değiller. Hele toplumlarda siyasi yöneticilerin bu konudaki eksiklikleri ve konuya gereken stratejik önemi vermemeleri sebebiyle yaşanan sorunlar sadece o toplumun bugününü değil tüm geleceğini de etkilemektedir.
Hatta baktığımızda y, z ve alfa kuşağı gençleri bile dijital okur-yazarlıkta yetersiz görüyorum. Sosyal medyayı başarılı bir şekilde kullanmayı, dijital okur-yazarlıkla eş gören bir anlayış var maalesef gençlerde. Tüm bu sebepler, eğitim politikamızın değiştirilip, bir yandan insan odaklı olarak psikolojiyi de öğreten, öğrencinin insan varlığını da tanıyabileceği, diğer yandan da dijital teknolojileri de derinlemesine öğrenebileceği bir eğitim sistemine geçmemizi ivedi kılıyor.
Gizlilik, Güvenlik Ve Deepfake’lerin Yükselişi
Önce duymayanlar için Deepfake’i açıklamakta fayda var. Deepfake, mevcut bir görüntü veya videoda yer alan bir kişinin yapay sinir ağları kullanılarak başka bir kişinin görüntüsü ile değiştirildiği bir uygulama. Sıklıkla, makine öğrenmesi teknikleri kullanılarak mevcut medya, kaynak medya üzerinde birleştirilerek üst üste konur. Bu şekilde sahte görüntü hedef resim ya da videoya yerleştirilmiş olur. Deepfake, “deep learning” (derin öğrenme) ve “fake” (sahte) kelimelerden türetilmiş bir birleşik bir kelimedir. Yapay zekanın kötü niyetli kullanımının dijital ve fiziksel güvenliği ciddi bir şekilde tehdit ettiği örneklerden bazıları:
- Deepfake amaçlı olmasa da Çin’de ofislerde, okullarda ve diğer mekanlarda yüz tanıma teknolojisi kullanılmaya başlandı bile. Ayrıca şirketler bütün bir ekosferi benzer teknolojilerle donatmayı ve bunu dünya çapında satmayı planlıyorlar. Ne tarafa doğru gittiğimizi bir düşünün! Ne derece özgür ve ruhumuzla insan olarak kalabileceğiz?
- Görüntü üzerinde sahtekarlık yapabilen yapay zekâ teknolojisi, aynı şekilde ses ve benzeri dosyalar üzerinde de manipülasyon yapabilmektedir. Yapay zekanın doğal dil işlemeye dahil olan bir alt kümesi olan makine öğrenimi kullanılarak, herhangi bir politikacının ses klibi, o kişinin aslında böyle bir şey söylemediği halde ırkçı veya cinsiyetçi görüşler ortaya atıyormuş gibi görünmesi için manipüle edilebilir. Tam bu noktada da “The Great Hack (Büyük Hacklenme)” belgeselini önereceğim.
- Devlet dışı sanal aktörlerin tehdit oluşturması
- İnsansız hava araçlarının silahlanması
- Yapay zekâ ayrıca gerçek olanlardan ayırt edilmesi çok zor olan hiper gerçek görünen sosyal medya “kişilikleri” oluşturabiliyor. Twitter, Facebook veya Instagram’da ucuza ve geniş ölçekte konuşlandırıldıklarında hatta seçimleri bile etkileyebiliyorlar. Burada da “Social Dilemma (Sosyal İkilem)” belgeselini öneri olarak paylaşıyorum. Artık hiç kimse neyin gerçek neyin gerçek olmadığını bilmiyor. Ayrıca doğru bilgiye nasıl ulaşılabileceğini de bilmiyor. Yani gerçekten kendi gözlerinize ve kulaklarınıza tam anlamıyla inanamayacağınız, bilinmez bir dünyaya doğru gidiyoruz.
- Önümüzdeki beş sene içinde daha da çok yaşamaya başlayacağımız bu kaos senaryoları bir tarafa, dünyada 18 ayrı üniversite ve kuruluşta üzerinde çalışılan ve 2040’da bitirilmesi hedeflenen “dijital ölümsüzlük (digital immortality)” projesini de sırası gelmişken burada paylaşmak isterim. Yani teknoloji devleri bir yandan insana varoluşsal bir tehdit oluştururlarken, diğer yandan da beden ölse bile “zihnini buluta kopyalar, bilgi ve tecrübelerini dünya üzerinde robotlar vasıtasıyla kullanırız” diyorlar. İlginç değil mi?
Ayrıca okuyabilirsiniz:
Yapay Zeka Nedir? Yapay Zeka Nasıl Çalışır?
Yapay Zeka ile İnsan Zekası Arasındaki Farklar
Gelecekteki Tehlikeler
Yapay Zekâ Yanlılığı ve Sosyoekonomik Eşitsizlik
Yapay zekâ kaynaklı iş kaybının yol açtığı genişleyen sosyoekonomik eşitsizlik, endişe için başka bir neden. Eğitimle birlikte iş hayatı uzun süredir sosyal hareketliliğin itici gücüdür. Bununla sebeple, belirli bir tür iş olduğunda – yapay zekanın devralmaya eğilimli olduğu öngörülebilir, tekrarlayan türde işler –daha çok yapay zekâ tarafından yapılmaya başlayacaktır. Çünkü bu tür işleri insanların yapması için ya daha çok eğitim alması gerekecektir ya da zor koşullar (iklimsel koşullar – soğuk ya da aşırı sıcak-, yer altı gibi tehlikeli ortamlar) sebebiyle yapmak istemeyeceklerdir.
Diğer bir perspektif de yapay zekâ konusunda araştırma ve yatırım yapan kişiler öncelikle erkeklerin çoğu belirli ırksal demografik yapılardan gelen, yüksek sosyoekonomik bölgelerde yetişmiş ve engelli olmayan kişiler. Dolayısıyla bu kişilerin, yapay zekaya aktardıkları algoritmalarında dünya meseleleri ve insanlık / insan hakkında geniş düşünebildiklerini öngörmemek gerekiyor. Yani taraflı bir programlama yapıyorlar ve daha da yapmaya devam edecekler.
Önyargının kökeni teknolojik olmaktan çok, toplumsal olsa da bilim insanları da nesnellik yanılsamasına sahip olabilirler. O yüzden özellikle yapay zekâ konusunda projeler geliştiren bilimsel ekiplerin, öncelikle “dünyanın sosyal dinamiklerini” anlamaya çaba sarf etmeleri gerektiğini düşünüyorum. Çünkü insanlığın sözde teknolojik ilerlemesi, ortak iyinin düşmanı haline gelirse bu durum güçlü olanın koyduğu yasa ile dikte edilen bir diktatörlüğe gider. Ayrıca özel sektörün hedefi her şeyden önce kâr arayışı olduğundan, “burada en iyi, en doğru çözüm nedir?” diye de kimse düşünmez.
Yapay Zeka Gelecekte Neler Yapabilecek?
- Önümüzdeki yirmi yılda ekonomik ve üretkenlik artışının ana itici gücü olması bekleniyor.
- En büyük örneklerden Microsoft ve Apple farklı projeler üzerinde çalışsalar da, çoğunlukla yapay zeka uygulamaları Cortana ve Siri üzerinde çalışıyorlar. Microsoft’un yapay zeka konumu, bugün mevcut olan en büyük profesyonel iş verilerine erişmesini sağlayan Linkedin’i satın almasıyla değişebilir.
- Yaşamı tehdit eden hastalıkların tespiti, birkaç ay boyunca geniş bir alanın hava koşullarının tahmin edilmesi ve insan ırkının dijital işbirlikçisi olması beklenecek.
Yapay Zeka Dünyayı Ele Geçirecek Mi?
- Devletler olumsuz etkilerini büyük ölçüde göz ardı ederlerken, teknolojik ilerlemenin faydalarına odaklanmaya başlayabilirler. Politikacılar bu yeni teknolojilerin riskleri ve potansiyeli hakkında net bir anlayışa sahip olmadıkça, özellikle düşük gelirli ülkeler savunmasızdır. İşgücü piyasası politikalarını, sosyal güvenlik planlarını ve vergilendirme sistemlerini yeniden tasarlamaya ne kadar erken başlarsa, halihazırda olan geleceğe o kadar iyi adapte olabilir.
- İstatistiklere göre, yapay zeka pazarının 2025 yılına kadar 190 milyar dolara ulaşması bekleniyor. 2021 yılında bilişsel ve yapay zeka sistemlerine yönelik küresel harcamalar 57,6 milyar dolara ulaşırken, kurumsal uygulamaların% 75’i yapay zeka teknolojilerini kullandı. Ulusal GSYİH açısından, yapay zekanın 2030 yılına kadar Çin’i% 26,1 ve ABD’yi% 14,5 oranında arttırması bekleniyor.
Yapay Zekanın Risklerini Azaltma
Kötü niyetli yapay zekanın hasara yol açmasını önlemenin veya en azından yumuşatmanın tek yolu, konuya bir tür düzenleme, bir standart getirmektir.
- Yapay zekâ projelerinin güvenli bir şekilde geliştirdiğini doğrulamak için iç görüye ve ardından gözetime sahip bir kamu kuruluşu olması gerekiyor. Yani uluslararası bir yapay zekâ denetleme veya standart üst kurulu. Bu son derece önemli.
- Ya da Stanford Üniversitesinde olduğu gibi Heartificial Intelligence yani “İnsan Merkezli Yapay Zeka Enstitüleri” kurulabilir ve amaç yapay zekanın toplumu zayıflatmak yerine güçlendirmesini sağlamak olabilir. Ayrıca bu konuya da bir standart getirilebilir. ISO standartları gibi bir standart yapay zeka kullanımı için tanımlanabilir.
Yapay zeka gelişiminde geride kalan herhangi bir ülkenin (ülkemiz gibi), askeri, sosyal ve ekonomik olarak belirgin bir dezavantaja sahip olacağını da bir yandan görmemiz gerekiyor. Yukardaki sebepler dolayısıyla ben de iş yaşamımda, dengeyi sağlamak için teknoloji ile psikolojiyi birleştirerek anlattım.
Geleceğimiz, sosyal ve bilgisayar bilimcilerinin birden fazla tecrübeye yani multi disipliner bakışa sahip insanlarla yan yana çalışma yeteneğine bağlı. Günümüzün bilgisayar bilimi merkezli modelinde önemli bir değişim yaşanması gerekiyor. Yani bilgi teknolojilerinde okuyan ya da çalışan kişilerin sosyoloji, psikoloji, ekonomi, antropoloji vb. diğer disiplinleri de araştırmaları gerekmektedir. Yapay zekanın yaratıcıları, ekonomi, hukuk, tıp, felsefe, tarih, sosyoloji, iletişim gibi diğer alanların yanı sıra etnik kökenler, cinsiyetler, kültürler ve sosyo-ekonomik gruplar arasındaki insanların iç görülerini, deneyimlerini ve endişelerini de araştırmalıdır. İnsan-bilgisayar-etkileşimi, psikoloji ve bilim ve teknoloji çalışmaları bir arada yapılmalı. Bu işbirliği, bir uygulamanın yaşam döngüsü boyunca – başlangıcından pazara sunulmasına kadar ve kullanım ölçekleri olarak – olmalıdır.
Otuz sene evvel yaptığım yapay zeka doktora tezinden bu yana bilgi teknolojileri sektöründe deneyimlediklerim ve gördüklerimle hep aynı şeyi söyledim ve söylemeye devam edeceğim. Çünkü teknolojinin doğduğu ve gerçekten insana hizmet ettiği o yılları yaşamış biriyim. Analitik zekamla geçmişe ama duygusal zekamla ve de yürek gözümle geleceğimize baktığımda insanlık için şu tehditleri görüyorum.
O yüzden hep dediğim gibi “insan odaklı teknoloji, teknoloji odaklı insan değil!”
Önce İNSAN, İNSAN, İNSAN ve her daim İNSAN!
Yönetim & Dijital Dönüşüm Danışmanlığı ve Eğitimlerim hakkında bilgi ve randevu almak için tıklayınız!