22, 2023 tarihinde, Dev Yapay Zeka Deneylerini Duraklatın açık mektup yayınlandı ve dünya çapındaki tüm laboratuvarları geliştirmeyi derhal durdurmaya çağırdı. AI sistemler daha büyük OpenAI'nin GTP-4'ü.
Bu mektubun arkasındaki mantık, gelişmiş yapay zeka modellerinin insanlık için oluşturduğu ve dünya çapında gelişmiş yapay zeka sistemleri için güvenlik protokollerini ortaklaşa geliştirmeyi ve uygulamayı gerekli kılan sayısız tehlikeyle ilgilidir.
Bu gönderi, AI'nın insanlık için oluşturduğu tüm tehlikelere bakıyor ve bu tehlikelere olası çözümleri de değerlendiriyor.
GPT-4 ve 1,000 İmzalı Mektup
Çoğu insan için yapay zeka eğlencelidir. Yapay zeka algoritmaları sayesinde akıllı resimler ve videolar çekebilir, öğelerinizi kolaylıkla düzenleyebilir, daha hızlı çalışabilir, daha iyi bilgi, öneriler alabilir ve benzeri işlemleri yapabilirsiniz.
Ancak Mart 2023'te yapay zeka gelişimini bir süreliğine durdurmak için açık bir mektup çıktığı haberi geldiğinde, çoğu kişinin dikkatini çeken şey bu imzaların arkasındaki isimler oldu. İtibaren Elon Musk için Apple'ın Steve Wozniak'ıve diğer yüzlerce önemli bilim adamı ve önde gelen araştırmacı, bu mektubun ciddiyetini açıkça ortaya koydu.
Mektup o zamandan beri 27'den fazla imza topladı ve artıyor, ancak doğruyu söylemek gerekirse, AI gelişimi bir silahlanma yarışı gibidir. Yavaşlarsan kaybedersin.
Yapay Zekanın İnsanlık İçin Tehlikeleri
Yapay zeka, kim olduğunuza ve ne yaptığınıza bağlı olarak insanların özel ve profesyonel yaşamlarının birçok alanına dokunuyor. Aşağıdakiler, yapay zekanın genel olarak insanlık için başlıca tehlikelerinin bir listesidir.
- İşten Çıkarma ve İşsizlik Krizi: Tüm meslek türlerinde insan işçilerin olası yer değiştirmesi, AI ile ilgili en büyük endişelerden biridir. Bu, iş kaybına ek olarak, etkilenen toplumlarda krizlere, sosyo-ekonomik eşitsizliklere ve toplum üzerinde diğer olumsuz etkilere yol açabilir.
- Etik kaygılar: Önyargılı algoritmalardan mahremiyet kaybına ve sorumluluk eksikliğine kadar, etik kaygılar yapay zekanın insanlık için oluşturduğu bir başka büyük tehlikedir. Bir yapay zeka sürücüsü bir yayaya zarar verdiğinde veya onu öldürdüğünde bu kimin suçu? AI'dan yanlış bir tıbbi teşhisten kim sorumludur? Yapay zekanın kasıtsız olarak zarar vermesi gibi diğer istenmeyen sonuçlardan kim sorumlu tutulmalıdır? Yapay zeka destekli robotlar ve otonom sürüş araçları gerçeğe dönüştükçe, bu tehlikeler ana akım haline gelecek.
- Güvenlik riskleri: Gözetleme, siber güvenlik ve otonom silahlar gibi belirli güvenlik görevleri için yapay zekaya güvenmek, birçok potansiyel istismara yol açar. Örneğin, otonom silahlar ciddi kayıplara neden olabilir, çünkü kötü aktörler AI'nın güvendiği verileri zehirleyebilir ve AI'nın ciddi kayıplara yol açabilecek veya zaten gergin olan çatışmaları tırmandırabilecek kararlar almasına yol açabilir.
- İnsan Kontrolünün Kaybı: Tasarım önerileri sunan basit AI sistemleri, kaçınılmaz olarak insan uzmanların yardımcısı olarak işlev gördükleri için sorun değil. Ancak, giderek daha büyük miktarda veriye dayalı olarak kararlara ulaşabilen daha karmaşık yapay zeka modelleriyle, insan kontrolü ve denetiminin önemini yitirme tehlikesi yüksektir. Bu, öngörülemeyen durumlara yol açabilir, çünkü örneğin, AI'nın tavsiyelerine uymak akıllıca olacaktır, ancak bu durumda gerçekten doğrular mı?
- Beceri ve Ekonomik Bağımlılık: Toplumun uzmanlığı ve ekonomik hizmetleri için yapay zekaya güvenmek, bir dizi başka tehlikeyi de beraberinde getiriyor. İlk olarak, bilgi için yapay zekaya güvenmek, sistem bu görevleri üstlendiğinden insanların düşünme yeteneklerinin azalmasına yol açabilir. İkincisi, hizmetler ve kritik ekonomik altyapı için yapay zekaya güvenmek, bu toplumu siber saldırılara ve diğer yapay zekaya özgü tehditlere açar.
- Derin Sahtekarlıklar ve Yanlış Bilgilendirme: Deepfakes, birkaç yıl önce inanılmaz yetenekleriyle dünyayı hayrete düşürdü, ama bu sadece başlangıçtı. Yapay zeka fotoğraf ve video oluşturma modelleri her geçen gün daha iyi hale geldikçe, yapay zeka tarafından oluşturulan içeriği gerçek resim ve videolardan ayırt etmenin imkansız değilse bile çok zor hale geleceği bir gün gelecek. Ve her zaman olduğu gibi, yanlış bilgilendirme, iftira, gasp, şantaj, intikam pornosu, dolandırıcılık, karakter suikastı ve toplum mühendisliğine yönelik potansiyel uygulamaları sınırsızdır.
- Ekonomik Eşitsizlik ve Sosyal Eşitsizlik: Dünya halihazırda, sahip olanlar ve olmayanlar olmak üzere iki sınıfa bölünmüş durumda, bu da %1 seçkinler ve %99 ezilenler gibi terimlere yol açıyor. Yapay zeka, kalkınma ve ekonomik uygulama için sermayeye bel bağladığından, nüfusun daha az bir yüzdesinin bile piyasalara yatırılan yapay zekanın finansal getirilerinden ekonomik ve büyük ölçüde yararlanma tehlikesi yüksek olmaya devam ediyor.
- Sosyal izolasyon: Pek çok sosyal medya kullanıcısı, onlara tam olarak görmek istediklerini gösteren ve onları başka eğlenceli yollarla daha fazla meşgul eden yapay zeka algoritmaları sayesinde zaten akıllı telefonlarına bağımlı durumda. Bu duygusal bağımlılık, bir dereceye kadar bağımlılık ve bunun sonucunda sosyal izolasyon yarattı; birçok kullanıcı, telefonlarıyla yapayalnız baş başayken rahattı. Ayrıca, bir kişinin hayatındaki insanların yerini daha fazla AI hizmeti aldıkça, fiziksel etkileşimleri de azalacaktır.
- Manipülasyon ve Etki: AI algoritmaları, arama motoru sonuçlarını, sosyal medya akışlarını, sanal asistanları ve sohbet robotlarını başarılı bir şekilde manipüle etmek için zaten her yerde kullanılıyor. Kâr veya eğlence için bu etkileri en üst düzeye çıkarmanın yenilikçi bir yolunu bulması an meselesi.
- Sağlık ve Güvenlik Riskleri: Sağlık hizmetleri için yapay zekaya bağımlılık aynı zamanda hastanın sağlığını ve esenliğini tehlikeye atabilecek riskleri de beraberinde getirir. Önyargılı veya ayrımcı eğitim verilerine dayalı olarak hastalığın olası yanlış teşhisini ve yanlış tedaviyi içerir. Başka bir olasılık, AI'dan sağlıksız ve hatta ölümcül bir tedavi tavsiyesini etkilemek için hastanın verilerinin kötü bir aktör tarafından kasıtlı olarak zehirlenmesidir.
- İnsan Yaratıcılığının Kaybı: OpenAI'nin GPT-4, Stable Diffusion ve Midjourney 5'in şu anda başı çekmesiyle, metin, görüntü ve video oluşturma özelliklerine sahip büyük dil modelleri her geçen gün daha iyi hale geliyor. Bu sistemler, müzikten yazılı metinlere, şiirlere, resimlere, videolara ve eskizlere kadar genellikle sanatçılara ve doğuştan yetenekli kişilere bırakılan her türlü içeriğin oluşturulmasını daha kolay ve hızlı hale getirir. İyileştikçe ve herkes tarafından erişilebilir hale geldikçe, arketipsel insan yaratıcısı toplumda giderek daha az geçerli hale gelir.
- Varoluşsal Riskler: Herhangi bir insanınkinden çok daha fazla yeteneklere ve insanlara bir şekilde boyun eğdirmeye veya onlara zarar vermeye karar verebilecek kadar güçlü kaynaklara sahip bir Yapay Genel Zeka (AGI) sisteminin tehlikesi çok gerçektir.
- Şeffaflık Eksikliği: Özellikle algoritmalar karmaşık olduğunda, yapay zekanın nasıl çalıştığını kimse gerçekten anlamıyor. Bu, neredeyse hiç kimsenin belirli önemli kararlara nasıl ulaşıldığını tam olarak bilmediği anlamına gelir; bu da taraflı veya ayrımcı çıktılar, tespit edilemeyen güvenlik açıkları ve kötü niyetli saldırılar ve sonuçların açıklanamaması tehlikesine yol açar.
- Azalan İnsan Değeri ve Özerklik: Yapay zeka, insanlar için tahminde bulunarak ve tavsiyelerde bulunarak sürekli olarak insanın karar verme sürecini ve kontrolünü ele alıyor. Dahası, bu, insan kontrolünün ötesinde olan daha da gelişmiş makinelere veya modellere yol açabilir. Ve bu, birçok alan ve meslekte insan ilgisini azaltacağı gibi, her toplumdaki farklı mesleklerden insan becerilerinin, uzmanlığının ve toplumsal katkıların değerini düşürecektir.
- İstenmeyen sonuçlar: Bu muhtemelen yapay zekanın insanlık için oluşturduğu tüm tehlikelerin en tehlikelisidir. İstenmeyen sonuçlar nelerdir? Kimse bilmiyor. Çok geç olmadan kimse bilemez. Bu en azından teoride.
Yapay Zekanın Tehlikelerine Olası Çözümler
Yapay zekanın insanlığa yönelik tehlikeleri çok boyutludur ve bu, bu tehlikelere yönelik çözümlerin çok yönlü olması gerektiği anlamına gelir. AI'nın insanlığa yönelik tehlikelerini önlemeye veya azaltmaya yardımcı olacak potansiyel çözümlerden bazıları burada.
- Güçlü Düzenleme ve Yönetişim: Hükümetlerin yapay zeka gelişimini etik standartlar, şeffaflık ve hesap verebilirlik ile yönetmek ve düzenlemek için düzenleyici kurumlar oluşturması gerekir.
- Uluslararası işbirliği: Dünyanın dört bir yanından hükümetler, yapay zeka gelişimi için etik yönergeler geliştirmek ve yerel yapay zeka endüstrilerini düzenlemek için birlikte çalışmalıdır.
- Halk Eğitimi ve Farkındalık: Kamuoyunu yapay zeka, faydaları ve potansiyel riskleri hakkında eğitmek, bireylerin ve işletmelerin doğru kararlar almasına da yardımcı olacaktır.
- Açıklanabilir AI (XAI): Adından da anlaşılacağı gibi, XAI veya açıklanabilir AI, insanların modelin tahminlerinin arkasındaki mantığı anlamasını mümkün kılan bir AI geliştirme yaklaşımıdır.
- Sosyal Fayda için Sorumlu Yapay Zeka: Kâr peşinde koşan kapitalistler bunu reddedecektir, ancak bu, insanlığın kendisi için yapabileceği en iyi şeylerden biridir. Neden herkes için ücretsiz bir yapay zeka doktoru veya asistanı oluşturmuyorsunuz? Tamamı Sosyal Yapay Zeka tarafından desteklenen yardımcı teknolojiler, çevre koruma, akıl sağlığı desteği, sosyal hizmetler, gıda güvenliği ve sosyal refah ne durumda?
- Sürekli İzleme ve Değerlendirme: İlgili her teknoloji uzmanı, araştırmacı veya bilim insanı, yapay zeka gelişimine göz kulak olmalıdır. Çünkü büyük şirketler kolayca düzenlenip etik yönergelere uymaları sağlanabilse de, dünyayı şok etmeye karar verebilecek öngörülemeyen gruplar veya ekipler var.
Sonuç
Yapay zeka, insanlığın geleceğini önemli ölçüde etkileme potansiyeline sahip olsa da, tehlikelerini anlamak da son derece önemlidir, çünkü ancak o zaman bu riskleri azaltırken herkes için güvenli ve adil bir şekilde onun faydalarına yönelik çalışabiliriz.