DeepMind’ın kurucu ortağı Mustafa Süleyman ile Yapay Zeka’nın geleceği hakkında düşündürücü bir sohbet

CEO Of Microsoft AI: AI Is Becoming More Dangerous And Threatening! – Mustafa Suleyman

YouTube player

Okumaya başlamadan önce: Mustafa Süleyman Kimdir ?

Steven Bartlett: Google’s AI teknolojisi DeepMind’in milyarder kurucusu Mustafa Suleyman, AI gelişiminde erken aşamalardan beri kilit bir rol oynamıştır. 2020’de Google’ın sohbet robotu projesine geçti ve bu teknolojinin bilgi edinmede devrim yaratma potansiyelini fark etti. Ancak, bu güçlü teknolojinin kötüye kullanımına dair endişeler, projenin piyasaya sürülmemesine neden oldu.
Mustafa, özellikle bu yeni AGI ve ACI dalgası ile AI’de olan biten her şey hakkında duygusal olarak ne hissediyorsun?

Mustafa Suleyman: Dürüst olmak gerekirse, başlangıçta korkuyordum. Ancak zamanla, sonuçları düşündükçe, artılarını ve eksilerini değerlendirdikçe, bu yolda ilerlemeye alıştım. Bu rotanın bir noktada kaçınılmaz olduğu açık hale geldi. Bir tür olarak, insanlık olarak, buna uyum sağlamalı, yön vermeli ve kontrol etmeliyiz.
Ne kadar çok kolektif olarak sonuç üzerinde etkiye sahip olduğumuzu fark edersek, o kadar çok güçlendiğimizi hissederiz. AI, su tuzdan arındırma, gıda üretimi, yenilenebilir enerji ve iklim değişikliğine uyum gibi büyük zorluklarla başa çıkmamıza yardımcı olabilecek bir araç olma potansiyeline sahiptir. Önümüzdeki 50 yıl içinde daha az kaynakla daha fazlasını yapmamız gerekiyor ve AI, bilimsel araştırma, icat ve yaratımda kritik bir ortak olabilir. Fayda muazzam.

Steven Bartlett: Bu korkudan güçlenmeye doğru dönüşüm ne zaman gerçekleşti?

Mustafa Suleyman: 2013 civarında, Derin Öğrenme devrimi patlak verdiğinde. AI’nin akıllı şeyler yapmayı öğrendiği erken versiyonlarını görüyorduk. Örneğin, bir AI’yi, ekrandaki pikselleri gözlemleyerek Atari oyunları oynaması için eğittik. İnsan oyuncularının bile düşünmediği stratejileri ve hileleri öğrendi.
Bu benim için bir buluş anıydı. AI’nin yeni bilgi icat etme ve medeniyeti ilerletme potansiyelini gösterdi. Ancak aynı zamanda, bu düzeydeki öğrenme ve adaptasyonu izlemek korkutucuydu.

Steven Bartlett: Bu farkındalığı pekiştiren belirli bir an oldu mu?

Mustafa Suleyman: Evet, 2013’ten önce bile, çok erken bir görüntü oluşturma modeli üzerinde çalışıyorduk. Bu model, elle yazılmış rakamları oluşturmak üzere eğitilmişti. Ekranın karanlığından yavaşça ortaya çıkan yedi rakamını gördüğüm anı çok iyi hatırlıyorum. Basit bir görevdi, ancak modelin bir yedi temsilini anlama yeteneğini gösterdi.
Aradan 10 yıl geçti ve siyah beyaz rakamları tahmin etmekten, basit dil talimatlarıyla fotogerçekçi görüntüler ve videolar oluşturmaya geldik. Bu tahmin edilebilir bir rota oldu, ancak yine de olağanüstü.

Steven Bartlett: İlerleme öngörülebilir olduğunu söylediniz, ancak son on yılda sizi şaşırtan bir şey oldu mu?

Mustafa Suleyman: ChatGPT gibi dil modellerindeki ilerlemeler ve kendi Inflection AI’mızdaki Pi gerçekten şaşırtıcıydı. Dil, her kelime için sayısız olasılıklarla o kadar soyut bir alandı ki, insan kalitesinde metin üretebilecek ve bu kadar ince konuşmalar yapabilecek AI oluşturabileceğimizi hayal edemedim.

Steven Bartlett: AI hakkında birkaç kişiyle konuştum ve gerçekten korkuyorum. Bu duygusal bir korku değil, mantıksal bir korku. İnsanların artık egemen tür olmadığı bir geleceği nasıl önleyebileceğimizi görmekte zorlanıyorum. Kitabınız “The Coming Wave”in ilk bölümü “Containment is Not Possible” (Kontrol Mümkün Değil) başlığını taşıyor. “İyimserlik Tuzağı” hakkında konuşuyorsunuz. Bunu açıklayabilir misiniz?

Mustafa Suleyman: Bu, AI’nin potansiyelini tam anlamıyla kavradığımızda yaşadığımız ilk tepkidir – korkutucu ve tehdit edici gelir. İş kaybı, AI ile ilişkilerin doğası ve bu akıllı varlıklarla dolu bir dünyada insan olmanın ne anlama geldiği konusunda endişeleniriz.
İyimserlik tuzağı, bu rahatsız edici duygulardan ve düşüncelerden kaçınma eğilimidir. Riskleri hafife alırız ve iyimserliğe sarılarak her şeyin bir şekilde yoluna gireceğine inanırız. Bu, AI’nin zorluklarını ele almak için gerekli olan zorlu konuşmaları yapmamızı engeller.

Steven Bartlett: Bu zorlu konuşmaları yapmaktan korkuyor musunuz, nasıl karşılanabileceği düşünüldüğünde?

Mustafa Suleyman: Artık pek korkmuyorum. Yıllardır AI etiği, güvenliği ve kontrolü hakkında sorular sormaktayım, hükümetler, sivil toplum ve diğerleri ile etkileşimde bulunuyorum. AI’nin bize olmaması için açıkça zorlukları tartışmalı ve potansiyel çözümler üzerinde konuşmalıyız.

Steven Bartlett: Kitabınızda “kontrol sorunu”ndan bahsediyorsunuz. İyi bir amaçla icat edilen, ancak aynı zamanda zarar da verebilen bir araç olan çekiç örneğini veriyorsunuz. Tarihsel olarak, teknolojileri yasaklamayı başaramadık. AI’yi kontrol etme konusunda iyimser misiniz?

Mustafa Suleyman: Burada iyimserlik ya da kötümserlik doğru bir çerçeve değil. Her ikisi de eşit derecede yanıltıcı olabilir. Dediğim gibi, yüzeyde kontrol imkansız görünüyor. AI, hem iyi hem de kötü uygulamaları olan omni-kullanımlı bir teknoloji, bu nedenle ticari teşviklerin gelişimi yönlendirmesi nedeniyle kontrol edilmesi zordur.
Ancak ulus devletlerin, yoğunlaşmış güç ve otoriteleri ile, AI’yi düzenlemek ve kontrol etmek için önemli bir rol oynayabileceğine inanıyorum. Bu yeni gerçekliği ele almak için yönetişim yapılarımızı güncellemeliyiz.

Steven Bartlett: Eğer önümüzdeki 30 yıl içinde AI’yi kontrol edemezsek dünya nasıl bir yer olur? Çoğu insanın AI hakkındaki anlayışı sohbet botları ve dil modelleri ile sınırlı. Sizin çok daha derin bir bakış açınız var.

Mustafa Suleyman: 2050 yılında, AI başka bir insan gibi hissedecek, dijital dünyada karmaşık etkileşimler ve görevler yapabilecek. Gelişmiş robotlarımız olacak ve hatta sentetik biyoloji sayesinde yeni biyolojik varlıklar bile oluşturulacak.

Steven Bartlett: Yeni biyolojik varlıklar mı? Bunu açabilir misiniz?

Mustafa Suleyman: Gen düzenlemesi ve sentetik biyoloji alanındaki ilerlemelerle, yeni yaşam formları oluşturma ve mevcutları değiştirme yeteneğine sahip olacağız. Bu, inanılmaz tıbbi atılımlar getirebilir, ancak aynı zamanda yapay patojenler ve potansiyel salgınlar riski de sunar. Bu nedenle, kontrol özellikle bu alanda çok önemlidir.

Steven Bartlett: AI’nin zararlı patojenler tasarlama potansiyeli düşüncesi ürkütücü. Bir ulus bu yola başvurursa, diğerleri kendilerini korumak için takip etme ihtiyacı hissederler. Bu, nükleer silahlanma yarışına benziyor.

Mustafa Suleyman: Kesinlikle. Ancak bu zihniyete teslim olamayız. Küresel işbirliğini önceliklendirmeli ve insanlığı koruma konusunda ortak bir çıkarımız olduğunu kabul etmeliyiz. Nükleer silahların yayılmasının önlenmesi anlaşması, kusurları olsa bile, tehlikeli teknolojilerin yayılmasını sınırlamanın mümkün olduğunu göstermiştir.

Steven Bartlett: Sizce önümüzdeki 30 yıl içinde AI’yi kontrol etmeyi başaracak mıyız?

Mustafa Suleyman: Başarmalıyız. Bir hümanist olarak, türümüzü önceliklendirmeyi ve bu gezegende egemen tür olma pozisyonumuzu savunmayı seçmemiz gerektiğine inanıyorum. İnsanlara provokatif şekilde tabi olacak AI sistemleri tasarlamak mümkün, ancak bu riski almamalıyız. Kontrol ve yayılmanın önlenmesine odaklanmak çok önemli.

Steven Bartlett: Süper zeki bir AI’nin bizimle neden etkileşim kurmak isteyeceğini anlamakta zorlanıyorum. Bizim onlar için ne anlamı olurdu? Kitabınızda AI’nin potansiyel zekasında bir üst sınır olmadığını belirtiyorsunuz.

Mustafa Suleyman: Bu, onları nasıl tasarladığımıza bağlıdır. Zorluk, bizimle etkileşim kurmayı isteyen, hedeflerimizi ve değerlerimizi anlayan ve saygı duyan AI’ler yaratmaktır. Bunu garanti edemezsek, dikkatli olmalı ve gereksiz risklerden kaçınmalıyız.

Steven Bartlett: AlphaGo maçında, insanları şaşırtan bir hareket yaptığı an, AI’nin kontrolünü kaybetme korkusu yarattı. Bu tür kontrol ötesi AI’yi nasıl kontrol edebileceğimizi sorgulamaya başladım.

Mustafa Suleyman: Gerçek şu ki, AI’den bu tür şeyleri yapmasını istiyoruz – yeni stratejiler keşfetmesini, icat etmesini ve şu anki yeteneklerimizin ötesindeki sorunları çözmemizi sağlamasını. AI’nin bu yaratıcılığı ve becerikliliği onu bu kadar güçlü ve aynı zamanda potansiyel olarak riskli yapan şeydir.

Steven Bartlett: AI’nin olası sonuçlarını düşünerek, bu alanda bir şirket kurmayı neden tercih ettiniz?

Mustafa Suleyman: Güvenli ve etik AI’nin nasıl inşa edileceğini uygulamada göstermek için en iyi yolun bu olduğuna inanıyorum. Eğer sadece geri çekilip eleştiride bulunursak, sonuçları şekillendirme fırsatını kaçırırız. Inflection AI’de, şirket yapımızı güvenlik ve etiği önceliklendirecek şekilde tasarladık, halk yararına şirket olmaya dahil olduk. Bu, yasal olarak kâr ile dünyaya etkimiz arasında denge kurmamızı zorunlu kılar.

Steven Bartlett: Bazı insanlar hükümet düzenlemesinin sorunu çözeceğine inanıyor. Bunu kitabınızda ele alıyorsunuz ve düzenlemenin sınırlamalarını vurguluyorsunuz. Ne düşünüyorsunuz?

Mustafa Suleyman: Düzenleme şart, ancak yeterli değil. Kültürel bir değişim, geliştiricilerden ve halktan aktif katılım ve küresel işbirliği gerekiyor. Şu anki jeopolitik iklim, rekabet ve güvensizlik üzerine odaklandığından, bu işbirliği için büyük bir engel.

Steven Bartlett: Ekonomik teşvikler büyük. AI’nın birkaç trilyon dolarlık bir endüstri olması bekleniyor. Hükümetler veya şirketler neden uzun vadeli güvenliği kısa vadeli kazançlara tercih etsin?

Mustafa Suleyman: Ne yazık ki, tarihsel olarak, genellikle gerçek bir felaket işbirliği ve değişimi tetiklemek için gerekli oluyor. Bunu İkinci Dünya Savaşı’ndan sonra BM’nin ve diğer kurumların oluşumuyla gördük. Ancak AI ile bir felaketi bekleyemeyiz. Şimdi harekete geçmemiz gerekiyor.

Steven Bartlett: Kitabınızda AI kontrolü için on odak alanı belirtiyorsunuz. Bazılarını açıklayabilir misiniz?

Mustafa Suleyman: Bunlar, AI güvenliği araştırmaları ve denetimler gibi teknik çözümlerden, güçlü çipler ve bulut bilişim platformları gibi kritik kaynaklara erişimi kontrol etmeye kadar değişiyor. Ayrıca, vergilendirme ve yeniden eğitim girişimleri için fon sağlamak gibi ekonomik önlemleri de düşünmeliyiz.

Steven Bartlett: Ancak yüksek vergiler, AI geliştirmesini daha elverişli politikaları olan başka ülkelere yönlendirmez mi?

Mustafa Suleyman: Bu geçerli bir endişe ve uluslararası koordinasyon ihtiyacını vurguluyor. Sorumlu gelişimi teşvik eden ve aşağıya doğru bir yarışmayı önleyen küresel bir AI yönetim stratejisi oluşturmalıyız.

Steven Bartlett: İyimserlik ve eylem çağrınızı anlıyorum, ancak devredeki teşvikleri göz önünde bulundurduğumda, kontrolün gerçekten mümkün olduğuna inanmakta zorlanıyorum.

Mustafa Suleyman: Bunun kolay ya da garanti olduğunu iddia etmiyorum. İnsanlık uğruna mümkün olması gerektiğini söylüyorum. Bu hedefe ulaşmak için çalışmaktan başka seçeneğimiz yok.

Steven Bartlett: Bu büyük zorlukla başa çıkmak sizi hiç hayal kırıklığına uğratıyor ya da üzüyor mu?

Mustafa Suleyman: Kesinlikle. Bu sorunlarla her gün uğraşmak duygusal olarak yorucu. İşbirliği için kaçırılan fırsatları görmek, örneğin pandemiden ders çıkarmak gibi, bunaltıcı olabilir.

Steven Bartlett: Sizin gibi bir uzman ve alanda etkili biri olmak büyük bir sorumluluk duygusu da veriyor olmalı.

Mustafa Suleyman: Evet, bu sorumluluğu kabul ediyor ve bu önemli konuşmaya katkıda bulunmayı bir ayrıcalık olarak görüyorum. Tarihin gözleri üzerimizde gibi hissediyorum ve buna göre hareket etmeliyiz.

Steven Bartlett: Kitabınızda, AI ile etkileşimlerimizin diğer insanlarla olanlardan daha fazla olduğu bir dünyada yaşadığımızı öneriyorsunuz.

Mustafa Suleyman: Ekranlara bakarak geçirdiğimiz zaman ile yüz yüze etkileşimlerimizi karşılaştırın. Metaverse, bu paralel dijital alan, zaten burada ve hayatımızı nasıl şekillendirdiğimizi etkiliyor.

Steven Bartlett: Bir genç size AI ile dolu bu geleceği nasıl yönlendirmesi gerektiğini sorsa, ne dersiniz?

Mustafa Suleyman: Bilgiyi kucaklayın, meraklı olun ve karmaşık konuları ele alın. Rahatsız edici gerçekliklerden kaçmayın. Öğrenerek, aktivizmle ve açık tartışmalarla AI’nin geleceğini şekillendirmeye katılın.

Steven Bartlett: AI’yi kontrol etmeyi başarırsak ne olur? Ve başarısız olursak ne olur?

Mustafa Suleyman: Başarı, mevcut zorluklarımızın çoğunu çözen ve bizi kıtlıktan kurtaran bir teknolojiyle radikal bolluk bir geleceği ifade eder. Bu, muazzam yaratıcılık ve fırsatlarla dolu bir zaman olur.
Başarısızlık ise, gücün yanlış ellerde toplanması, yaygın zarar ve istikrarsızlık getirebilir. Bu nedenle kontrol çok önemlidir.

Steven Bartlett: Podcast’imizin kapanış geleneğinde önceki konuk, sonraki konuğa bir soru bırakır. Sizin için bırakılan soru şu: En kutsal alan ya da yer olarak hangi yeri düşünüyorsunuz?

Mustafa Suleyman: Benim için özel bir önemi olan bir yer, Göl Bölgesi’ndeki Windermere Gölü. Çocukken ziyaret ettiğimi ve huzur ve sakinlik duygusu hissettiğimi hatırlıyorum. Belki tüm bu kaos içinde biraz huzur bulmak için tekrar ziyaret etme zamanı gelmiştir.

Steven Bartlett: Mustafa, bu içgörülü ve düşündürücü sohbet için teşekkür ederim. Kitabınız, AI üzerine tartışmaya önemli bir katkıdır ve bu kritik konuya ilgi duyan herkese tavsiye ederim.