tarihinde yayınlandı Yorum yapın

Abartılı iddiaların ardındaki gerçek ortaya çıktı

Abartılı iddiaların ardındaki gerçek ortaya çıktı

Yapay zeka yılan yağı: abartılı iddiaların ardındaki gerçeği ortaya çıkarıyor

Arvind Narayanan (solda) ve Sayyash Kapoor (sağda)

Yapay zeka hakkındaki söylemin sıklıkla dizginsiz iyimserlik ile varoluşsal korku arasında gidip geldiği bir dünyada, Sayyash Kapoor ve Arvind Narayanan gürültüyü kesen en net seslerden ikisi olarak ortaya çıktılar. İkili yakın zamanda Time Magazine’in En İyi 100 Yapay Zeka Etkileyicisi arasında gösterildi ve teknolojiyi çevreleyen abartılı reklamı çürütme misyonundalar.

Dünya, yapay zekanın son parlak vaadi ile teknolojik bir altına hücuma tanık oluyor. Tahmine dayalı polislikten iş otomasyonuna kadar, yapay zekanın bizi bizden daha iyi tanıdığı bir geleceğe dair vizyonlar bize satılıyor. Ancak bu çekici görünümün altında rahatsız edici bir gerçek yatıyor: Bugün son teknoloji yapay zeka olarak pazarlananların çoğu aslında yılan yağı.

Yolculukları 2019 yılında Princeton Üniversitesi’nde bilgisayar bilimi profesörü Arvind’in Yapay Zeka ile Yılan Yağı Nasıl Tanımlanır başlıklı bir ders vermesiyle başladı. Sunumu viral oldu, slaytları on binlerce kez indirildi ve tweet’leri milyonlarca izlendi.

Yapay zekaya yönelik eleştirel bakış açılarına yönelik artan iştahın farkına varan Arvind, doktora öğrencilerinden biri olan Sayash ile işbirliği yaptı. Öğrenciler, yakın zamanda 2024’te basılan bir kitabın ortak yazarlığını üstlenecek. Alt grupları AI Snake Oil, o zamandan beri yapay zekadaki en son gelişmeler ve yapay zekanın kötüye kullanımına ilişkin artan endişeler hakkında yorumların yapıldığı bir merkez haline geldi.

Sayyash’la yakın zamanda yaptığımız bir sohbette, onların şüphelerinin özünü, yapay zekanın gerçek sınırlamaları hakkındaki düşüncelerini ve tüm bu abartılı reklama rağmen yapay zeka hakkındaki gerçeğin neden iki uç noktanın arasında bir yerde olduğunu araştırdık.

Yapay zekanın gerçek yetenekleri ve sınırlamaları hakkındaki mitleri ve gerçekleri çürütmek için AI Snake Oil’in ortak yazarı Sayash Kapoor ile görüştüm.

Şüphenin kökeni

Her şey bir telefon görüşmesiyle başladı. 2019 yılında Sayyash’ın ortak yazarı Arvind Narayanan, yapay zeka tabanlı işe alım otomasyonu satan bir şirketteki ihbarcıdan gizli bir telefon aldı. Şirket, yalnızca 30 saniyelik bir video görüşmesine dayanarak bir adayın gelecekteki iş performansını tahmin etme yeteneğiyle övünüyordu. Sayash, “Çalışan şirketin yılan yağı sattığını söyledi” diye anımsıyor. “Arvind’e şirketin araçlarının çalışmadığını ve muhtemelen hiçbir zaman çalışmayacağını söyledi.”

Bu şirket, yalnızca 30 saniyelik bir video röportajına dayanarak işlerinde başarılı olacak adayları belirleyebileceğini iddia etti.

Bu durum alarm zillerini çaldırdı ve Arvind’i yapay zekanın yerine getirilmemiş vaatlerinin dünyasına daha derinlemesine dalmaya yöneltti. Bulguları MIT’de yaygın bir tartışmanın temelini oluşturdu ve burada gerçeği ortaya çıkardı: Sayash, “Yapay zeka bayrağı altında satılanların çoğu aslında işe yaramıyor” diyor.

Yapay Zeka Başarısız Olduğunda: İç Savaş Tahmini Durumu

Yapay zekanın kusurlarına yönelik araştırmaları işleri otomatikleştirmekle sınırlı kalmadı. Sayyash Princeton’a katıldığında başka bir cesur iddiaya bakmaya başladılar: Yapay zeka iç savaşları tahmin edebilirdi. Siyaset bilimciler, yapay zeka modellerinin önümüzdeki yıllarda hangi ülkelerin çatışmalarla karşı karşıya kalacağını tahmin etmede yüzde 99 doğru sonuç verdiğini açıkladı.

OKU:  Başbakan Narendra Modi, Piyade Günü'nde askerlerin yılmaz ruhuna ve cesaretine saygı duruşunda bulunuyor

“Eğer bu doğru olsaydı devrim niteliğinde olurdu” dedim. Sayash’ın yanıtı istatistikler tarafından ne kadar kolay yanıltılabileceğimizi hatırlatan bir uyarıydı. “Çalışmalara baktığımızda her birinde hatalar bulduk” dedi. “Hatalar düzeltildikten sonra yapay zeka, siyaset bilimcilerin halihazırda kullanmakta olduğu 20 yıllık yöntemlerden daha iyi bir performans göstermedi.”

Hatanın özü? Sayash, “Bu, ‘test için öğretme’nin klasik bir örneğiydi. Bu modeller, değerlendirildikleri veriler üzerinde eğitildi” dedi. Modeller, geçmiş veriler üzerinde iyi performans gösterse de gelecekteki olayları tahmin etmede işe yaramıyordu.

Bunu yeni örneklere (farklı bir ülkenin GSYİH’si gibi) uyguladığımızda, iç savaş olasılığı gibi gelecekteki sonuçları tahmin etmekte başarısız oluyor.

“Zeki olmaktan çok yapay,” diye ekledi alaycı bir gülümsemeyle.

Yılan yağı formülü

Yapay zekanın kalbinde, ister istihdam kararlarıyla, ister suçla ya da sağlık sonuçlarıyla ilgili olsun, insan davranışını tahmin ettiğini iddia eden bir teknoloji sınıfı olan tahmine dayalı yapay zeka yatıyor. Sayash, “geleceği tahmin etmenin zor olduğunu” vurguladı. “Ancak konu yapay zeka olunca sağduyuyu terk etmiş gibiyiz.”

Tahmine dayalı yapay zekayı özellikle tehlikeli kılan şey, bilimsel meşruiyet cilasıdır. “Yapay zeka” terimini görüyoruz ve bunun objektif, gelişmiş ve doğru olduğunu varsayıyoruz. Ancak Sayash’ın açıkladığı gibi: “Bu öngörü araçlarının özellikle sosyal sonuçlar söz konusu olduğunda işe yaramadığını defalarca gördük.” İş görüşmelerinden kefalet kararlarına kadar tahmine dayalı yapay zeka, göze çarpan kusurlarına rağmen önemli kararlar almaya devam ediyor.

Üretken Yapay Zeka: Umut mu, Heyecan mı?

Yelpazenin diğer ucunda metin, resim veya kod üreten ChatGPT veya DALL-E gibi üretken yapay zeka yer alıyor. Üretken yapay zeka büyük ilerlemeler kaydederken Sayash, aşırı vaatler ve aşırı abartılı riskler konusunda uyarıyor. “Evet, ChatGPT gibi araçlar hızlı bir ilerleme kaydetti, ancak yapay zekanın önümüzdeki beş ila 10 yıl içinde tüm işleri otomatikleştireceğini iddia etmek pek olası değil” dedi.

Üretken yapay zeka aynı zamanda endişeleri de beraberinde getiriyor; özellikle de yaklaşmakta olan varoluşsal tehdit. Sayash güldü: “İnsanlar yapay zekanın hepimizi öldüreceğinden endişe ediyor.” “Ancak bu tür bir düşünceyi destekleyecek kanıtımız yok. Yapay zeka, Microsoft Excel’den daha fazla varoluşsal bir risk değil.”

Sayash ve ortak yazarı, bilim kurgu senaryoları hakkında paniğe kapılmak yerine mevcut yapay zeka uygulamaları ve bunların gerçek riskleri hakkında daha temelli bir anlayış çağrısında bulunuyor. “Riskler gerçektir ancak daha pratiktir” diye açıkladı. “Örneğin, üretken yapay zekanın kötüye kullanılması, iyi kullanılmasından çok daha kolaydır. Onun sahte haberler ve propaganda ürettiğini zaten görüyoruz, ancak meşru ve üretken kullanım senaryoları bulmak çok daha zor.”

OKU:  Anket Komitesinin EVM suçlamasına yanıtı

Yapay zeka şirketi nedir?

Yapay zeka, yatırımcıları ve müşterileri çekmek isteyen şirketlerin moda sözcüğü haline geldikçe, gerçek yapay zeka ile göz alıcı analitikler arasındaki çizgi bulanıklaşıyor. Hindistan’da şirketler halka arz başvurusunda bulunurken ve kendilerini yapay zeka odaklı olarak tanıtırken Sayash şüpheci. “Seksen yıllık araştırmadan sonra bile yapay zekanın gerçekte ne anlama geldiği konusunda hâlâ bir fikir birliğine sahip değiliz” dedi.

AI Snake Oil’de Sayash ve Arvind, üç bölümden oluşan basit bir yapay zeka tanımı öneriyorlar:

İnsan yaratıcılığını veya eğitimini gerektiren görevleri yerine getirir.

Önceki verilerden öğrenir.

Üzerinde eğitim aldığı verilerin ötesinde genelleme yapar.

Ancak bu geniş tanım, “güneşin altındaki herkesin” kendilerini yapay zeka şirketleri olarak pazarlamasına olanak tanıdı. Sayash, “Yapay zeka kullandıklarını iddia eden şirketlerin aslında perde arkasında insanları çalıştırdıklarını gördük” dedi. “Örneğin, bir takvim planlama şirketi, yapay zeka destekli bir kişisel asistana sahip olduğunu iddia etti, ancak bu yalnızca e-postaları yanıtlayan ve randevuları planlayan insanlardı.”

Hindistan’da Yapay Zekanın Geleceği: İnovasyon Üzerinden Yayılma

Hindistan’ın yapay zekanın geliştirilmesinde önemli bir rol oynamaya hazır olması nedeniyle Sayash, yalnızca inovasyona odaklanmak yerine, odak noktasının yaygınlaştırılması – yapay zeka teknolojilerinin farklı sektörlere yayılması – olması gerektiğine inanıyor. “Yapay zeka hakkındaki tartışmalarda odak noktası genellikle kimin en iyi dil modelini oluşturacağı veya modelleri eğitmek için kimin en fazla GPU’ya sahip olacağıdır” dedi. “Ancak ekonomik dönüşümün asıl itici gücü yayılmadır, yani yapay zekanın sağlık, finans ve eğitim gibi sektörlerde nasıl benimsendiğidir.”

Hindistan için bu, ABD ve Çin’deki teknoloji devleriyle doğrudan rekabet etmek yerine yapay zekayı bu endüstrilere uygulayabilecek vasıflı işçiler yetiştirmek anlamına geliyor. Saiyash, “Soru kimin en iyi modeli oluşturduğu değil, yapay zekayı ekonominin farklı sektörlerine fayda sağlayacak şekilde nasıl kullanabileceğimiz olmalıdır.” diye vurguladı.

Yapay zekayı kullanarak ürün-pazar uyumunu bulun

Konuşma sona erdiğinde Sayyash’tan gerçek dünya uygulamaları geliştirmek isteyen yapay zeka geliştiricileri, araştırmacıları ve girişimcileri için tavsiyelerini istedim.

“Yapay zekayı kullanarak ürün pazarına uygun olanı bulmak çok zor ama kritik.” Demo oluşturmanın kolay olmasına rağmen insanların gerçekten kullandığı güvenilir bir ürün oluşturmanın çok daha zor olduğunu belirtti. “Gerçek değer, yapay zeka modellerinin halüsinasyon görmemesini veya hata yapmamasını sağlamak için etrafına korkuluklar oluşturmaktan geliyor.”

OKU:  Benzin pompası QR kodunu değiştirerek para çalan adam tutuklandı: Polis

Sayash’ın mesajı açıktı: Yapay zekanın çok amaçlı olması, onun gerçek dünyada çalışması için hiçbir çaba gösterilmemesi gerektiği anlamına gelmiyor. “Zaman, çaba ve belirli bir alanın derinlemesine anlaşılmasını gerektirir” dedi. “Burası yapay zekanın geleceğinin büyük tahminlerde değil, gerçekten işe yarayan bir şey inşa etmeye yönelik gerçek, temelli çalışmalarda yattığı yerdir.”

AI gürültüsünü kesmek

Bu talihsiz bir durum ama birçok teknik alanda olduğu gibi yapay zekada da kutuplaşmaya yönelik devam eden bir eğilim var. Saayash, “Bir yanda yapay zekanın tüm hastalıklara çare olacağına inananlar var, diğer yanda yapay zekanın insanlığı yok edeceğine inananlar var.” dedi. Bu aşırı pozisyonlar, aşırı vaatler ve abartılı korkulardan oluşan bir atmosfer yaratarak, netlikten çok kafa karışıklığı yarattı. Ancak Sayyash’ın vurguladığı gibi konuşmayı gerçekliğe döndürmek önemli.

O ve Arvind, çalışmalarının kanıtlara dayanacağına erkenden karar verdiler. Saayash, ötesinde güvenilir tahminler yapamayacağımız sınırlara atıfta bulunarak, “Bilimsel olay ufku kavramından ilham aldık” diye açıkladı. Yapay zeka bugün de benzer bir ufukta. Sayash bilmiş bir gülümsemeyle, “Bu, Marvin Minsky’nin 1960’larda bilgisayarla görme problemini bir yazda üç üniversite öğrencisinin çözebileceğini iddia etmesi gibi,” diye ekledi. “Elli yıl sonra buradayız ve sorunu çözmekten hala çok uzaktayız.”

Peki yapay zeka hakkında kamuoyunun yeniden düşünmesi gereken en büyük yanılgı nedir? Sayash bunu iki önemli noktada özetliyor: “Birincisi, yapay zeka tek bir teknoloji değil. Elbette ChatGPT gibi teknolojiler hızlı ilerleme kaydetti, ancak suç oranları veya iş performansı gibi gelecekteki sosyal sonuçları tahmin eden yapay zeka kesinlikle işe yaramıyor. İkincisi, bizi öldürmez.” Yapay zeka, insanların endişe duyduğu varoluşsal riskler kanıtlarla desteklenmiyor.

Yapay zekanın gerçekte yapabilecekleri ile yapabileceğini hayal ettiğimiz şeyler arasındaki uçurum çok büyük ve Sayash ve Arvind, AI Snake Oil adlı kitaplarıyla bu açığı kapatmayı amaçlıyor.

Sonuçta yapay zeka, bazılarının inandığı kadar güçlü bir araç olmadığı gibi, yaklaşmakta olan varoluşsal bir tehdit de değil. Gerçek etkisi ortada bir yerde yatıyor; kanıta dayalı bir yaklaşım ve belki de daha önemlisi, sağlam bir gerçeklik duygusu gerektiriyor. Sayash, eğer buna odaklanırsak, bu abartılı reklamın ötesine geçip yapay zekanın gerçekte ne olduğunu görebileceğimize inanıyor: sınırlamaları olan ancak dikkatli bir şekilde uygulandığında büyük potansiyele sahip bir araç.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir