tarihinde yayınlandı Yorum yapın

“Sorumlu yapay zeka” olarak kabul edilen göz yıkama, teknolojideki en son moda sözcüktür

“Sorumlu yapay zeka” olarak kabul edilen göz yıkama, teknolojideki en son moda sözcüktür

NDTV'den son dakika haberleri

1984 yılında Hindistan’ın uykulu şehri Bhopal, dünyanın asla unutamayacağı bir trajedi yaşadı. Union Carbide pestisit fabrikasından kaynaklanan ölümcül gaz sızıntısı birkaç gün içinde binlerce kişinin ölümüne ve birçok kişinin yaralanmasına ya da kalıcı olarak sakat kalmasına neden oldu. Bhopal felaketi yalnızca talihsiz bir kaza değildi; Bu, göz ardı edilen uyarıların ve ihmal edilen güvenlik önlemlerinin doruk noktasıydı; hesap verebilirliğin kârdan daha öncelikli olması durumunda önlenebilecek bir felaketti.

Yapay zekanın hızla hayatımızın her alanına entegre olduğu günümüzde, tanıdık bir rahatsızlık hissinden kendimi alamıyorum. Yapay zeka bir pestisit fabrikasından çok farklı görünebilir ancak riskleri gözlerimizin önünde artıyor. Kimin iş veya kredi alacağına karar vermekten seçimler sırasında kamuoyunu etkilemeye kadar yapay zeka, insan hayatını şekillendirme konusunda muazzam bir güce sahip. Şimdi acil soru şu: Uyarı işaretlerine göre mi hareket edeceğiz, yoksa sıradan insanların kurumsal tercihlerin maliyetini üstlendiği önlenebilir başka bir krize mi doğru gidiyoruz?

Sadece kurumsal bir terim mi?

“Sorumlu Yapay Zeka” teknoloji endüstrisindeki en son slogan haline geldi. “Yeşil” veya “kurumsal sosyal sorumluluk” gibi, şirketlerin etik uygulamalara bağlılıklarından emin olmak için kullandıkları bir terimdir. Peki “sorumlu yapay zeka” gerçekte ne anlama geliyor ve gerçek sorumluluk anlamına mı geliyor?

Çoğu durumda, “sorumlu yapay zeka”, eyleme geçme taahhüdünden ziyade bir pazarlama sloganı haline geliyor. Şirketler etik yönergeler yayınlıyor, ancak bunları uygulayacak mekanizmalar olmadığında, bu yönergeler genellikle kağıt üzerinde yalnızca kelimeler olarak kalıyor. “Yeşil aklamanın” kurumsal faaliyetlerin gerçek çevresel etkilerini maskeleyebilmesine benzer şekilde, “sorumlu yapay zeka” da şirketlerin bir yandan etik sorumluluk imajı yansıtırken kendi kendilerini düzenlemelerine olanak tanır. Gönüllü standartlara olan bu güven, gerçek hesap verebilirliği önler ve halkı kontrol edilemeyen risklere maruz bırakır.

İki görünüm

Yapay zekanın güvenliği konusundaki tartışmalarda iki ana bakış açısı ortaya çıktı. Birincisi yapay zekayı, yeniliği teşvik edecek minimum düzenlemeyle doğal olarak gelişmesi gereken başka bir teknoloji olarak görüyor. Bu görüşün savunucuları, “sorumlu yapay zeka” ilkelerinin yönlendirdiği şirketlerin kendilerini etkili bir şekilde düzenleyebileceklerine inanıyor. Önyargı ve veri gizliliği gibi acil sorunları ele almaya odaklanır ancak sıkı düzenleyici denetime direnir.

İkinci bakış açısı ise yapay zekanın eninde sonunda insanlık için temel bir tehdit oluşturabileceği uyarısında bulunuyor. Yapay zeka sistemleri geliştikçe otonom olarak çalışabiliyor ve kontrolümüz dışında kararlar alabiliyorlar. Bu grup, nükleer enerji veya biyolojik silahlarla ilgili düzenlemelere benzer katı koruyucu düzenlemeler yapılmasını talep ediyor. Uygun korumalar olmadan yapay zekanın istenmeyen hedeflere hizmet edebileceği veya bize büyük ölçekte zarar verebilecek şekillerde gelişebileceği konusunda uyarıyorlar.

OKU:  Sara Ali Khan'ın Diwali gönderisi bize Kedarnath'a yaptığı geziden lezzetli görüntüler sunuyor

Yapay zekayla derinden ilgilenen ancak onun kontrolden çıkan büyümesine karşı temkinli davranan biri olarak her iki bakış açısının da değerli olduğunu düşünüyorum. Yapay zeka, toplumu ilerletme konusunda inanılmaz umut vaat ediyor, ancak tarih, şirketlerin kendi kendilerini düzenlemelerine izin vermenin çoğu zaman felakete yol açtığını gösteriyor. Yapay zekanın güvenli bir şekilde gelişmesini sağlayan, tepkisel önlemler yerine dikkatli bir gözetimin yönlendirdiği dengeli bir yaklaşıma ihtiyacımız var.

Yapay zeka riskleri neden bu kadar hızlı artıyor?

Yapay zeka geleneksel teknolojilerden farklı çünkü kendi başına öğrenebiliyor ve karar verebiliyor. Yalnızca yapmaya programlandığı şeyi yapan bir makinenin aksine, yapay zeka sistemleri yeni verilere göre davranışlarını uyarlayabilir ve değiştirebilir. Bu kendi kendine öğrenme yeteneği, küçük sorunların, uygun şekilde yönetilmediği takdirde hızla büyük sorunlara dönüşebileceği anlamına gelir.

Yapay zeka, uygun bir gözetim olmadan mevcut önyargıları güçlendirebilir, etik hususları göz ardı edebilir veya verimliliği güvenlikten daha öncelikli hale getirebilir. Örneğin, bir yapay zeka sistemi önyargılı verilerden öğrenirse belirli insan gruplarına karşı ayrımcılık yapan adil olmayan kararlar verebilir. Finans, sağlık hizmetleri veya kolluk kuvvetleri gibi hassas alanlarda bu tür bulguların ciddi ve geniş kapsamlı sonuçları olabilir.

Williams, Oliver ve Parks’ın hikayesi

Bu riskler sadece teorik değil, şu anda da yaşanıyor. Amerika Birleşik Devletleri’ndeki Robert Williams, Michael Oliver ve Niger Parks’ın örneklerini düşünün. Üç adam, yüz tanıma yönteminin yanlış tanımlanması nedeniyle yanlışlıkla tutuklandı ve bu durum ciddi duygusal ve ekonomik sıkıntıya neden oldu. Nijer Parks 10 gün hapiste kalırken, Michael Oliver işini kaybetti. Her ne kadar suçlamalar sonunda düşürülse de, tutuklamaların ilişkileri ve kişisel yaşamları üzerinde kalıcı etkileri oldu.

Bu olaylar, kusurlu yapay zeka sistemlerinin ne kadar yıkıcı kişisel etkilere sahip olabileceğinin altını çiziyor. Yüz tanıma teknolojisinin koyu tenli kişileri tespit etmede daha az isabetli olduğu, bunun da haksız tutuklamalara ve azınlıkların adil olmayan şekilde hedef alınmasına yol açtığı ortaya çıktı. Güvenliği artırmayı amaçlayan teknoloji, bireysel hakların ihlaliyle sonuçlandığında, acil hesap verebilirlik ihtiyacının altını çiziyor.

OKU:  "Khalistani'den bahsetmekten kaçının": Kanadalı bir milletvekili siyasetçileri eleştiriyor

Finans sektöründe, kredi itibarını belirlemek için kullanılan yapay zeka algoritmalarının ırk ve cinsiyet önyargılarını kopyaladığı gösterilmiştir. Bu, yapay zekanın belirli demografik faktörleri riskle ilişkilendirmeyi öğrenmesi nedeniyle nitelikli başvuru sahiplerinin kredilerinin reddedilebileceği anlamına geliyor.

Konuşmayı yazıya dökmek için tasarlanmış bir araç olan OpenAI’nin Whisper’ı, bazen hiç söylenmemiş sözcükleri veya cümleleri icat ederek “halüsinasyonlara” neden olur. Tıp ya da hukuk gibi kritik alanlarda bu tür hatalar ciddi yanlış anlamalara ya da haksız eylemlere yol açabilmektedir.

Bu örnekler hayati bir sorunun altını çiziyor: Bir yapay zeka sistemi zarar verdiğinde kim sorumlu? Algoritmalar gerçek hayatı etkileyen kararlar alırken hesap verebilirlik sonradan akla gelen bir düşünce olamaz.

Önce vatandaşlar

Hindistan’da yapay zeka, tarımdan yapay zeka tabanlı eğitim platformlarına kadar çeşitli sektörlerde giderek daha fazla benimseniyor. Bu teknolojiler önemli faydalar sağlarken aynı zamanda gizlilik, veri güvenliği ve olası kötüye kullanım konusunda endişeleri de artırıyor.

Örneğin, tahmine dayalı polislikte yapay zekanın kullanılması, gözetleme ve sivil özgürlükler hakkındaki tartışmaları ateşledi. Eğitimde öğrenmeyi kişiselleştirmeyi amaçlayan yapay zeka araçları, teknolojiye eşit olmayan erişim nedeniyle mevcut eşitsizlikleri pekiştirdiği için eleştirilerle karşı karşıya kaldı.

Bu yerel örnekler, yapay zekanın etkisinin yalnızca küresel bir sorun olmadığını, aynı zamanda Hindistan’daki toplulukları ve bireyleri de etkilediğini gösteriyor. Bu zorlukların üstesinden gelmek yalnızca teknolojik çözümleri değil aynı zamanda vatandaşların haklarını koruyan düşünceli politikaları da gerektirir.

Moda sözcüklerin ötesine geçmek

“Sorumlu yapay zeka”nın moda bir sözcükten daha fazlası olmasını istiyorsak somut eyleme ihtiyacımız var:

  1. Dahili güvenlik mekanizmaları: Yapay zeka sistemleri, insan denetimi olmadan etik dışı veya otonom davranışları önleyen güvenlik özellikleriyle tasarlanmalıdır. Tıpkı arabaların frenleri ve emniyet kemerleri ile gelmesi gibi, yapay zekanın da yerleşik korumaları olmalıdır.
  2. Düzenli izleme ve denetim: Özellikle riskli durumlarda kullanılan yapay zeka için sürekli izleme önemlidir. Bağımsız denetimler, sorunları büyümeden önce tespit edebilir ve teknik performansı ve etik uyumu değerlendirebilir.
  3. Kademeli organizasyon: Tüm yapay zeka uygulamaları aynı düzeyde risk taşımaz. Sağlık veya finans gibi kritik sektörlerde kullanılan yapay zekanın sıkı testlere ve sertifikasyona tabi tutulduğu çok düzeyli bir düzenleyici çerçeveye sahip olmalıyız.
  4. Bağımsız gözetim ve uygulama: Kendilerini denetlemek için şirketlere güvenmek yeterli değildir. Standartları uygulama yetkisine sahip bağımsız düzenleyici kurumlar çok önemlidir.
  5. Şeffaflık ve açıklanabilirlik gereklilikleri: Yapay zekanın karşılaştığı en büyük zorluklardan biri, uzmanların bile belirli kararlara nasıl ulaştığını her zaman açıklayamadığı “kara kutu” yapısıdır. Şeffaflık ve açıklanabilirlik talep etmek, yapay zeka sistemlerinin incelenebilmesini ve sorumlu tutulabilmesini sağlar. Bir yapay zeka sistemi birine kredi vermeyi reddederse veya tıbbi tedavi önerirse bunun nedenini anlayabilmeliyiz.
OKU:  Brezilya'nın First Lady'si viral videoda Elon Musk için F kelimesini kullanıyor. O cevap veriyor

Yapay zeka çağında insan hakları

Yapay zeka güvenliği yalnızca teknik hataları önlemekle ilgili değildir; Gizlilik, adalet ve eşitlik gibi temel insan haklarının korunmasıyla ilgilidir. Algoritmalar, çoğu zaman hasar meydana gelene kadar kimse farkına varmadan, ayrımcılığı sürdürebilir.

Örneğin, bir yapay zeka işe alım aracı kadınlara karşı önyargılıysa, nitelikli adayları sistematik olarak dışlayabilir ve işyerinde cinsiyet eşitsizliğinin devam etmesine neden olabilir. İnsan haklarını korumak, bu haklara baştan sona saygı duyan yapay zeka sistemleri tasarlamak anlamına gelir; bu kavram “etik tasarım” olarak bilinir.

Dünya Ekonomik Forumu tarafından yayınlanan resmi raporda yapay zekanın adalet ve mahremiyet gibi değerlerle uyumlu hale getirilmesi vurgulanıyor ancak bu ilkelerin sadece benimsenmesi değil, uygulanması da gerekiyor. Etik yapay zekayı hedeflemek yeterli değil; Yapay zeka geliştirme ve dağıtımının her aşamasına etik hususların dahil edilmesini sağlamalıyız.

Sorumluluk paylaşılıyor

Yapay zekanın hesap verebilirliğini sağlamak yalnızca hükümetlerin veya şirketlerin işi değildir; Bu bir ekip çalışmasıdır. Uluslararası işbirliği, tıpkı çevrenin korunması veya nükleer silahların yayılmasının önlenmesine ilişkin küresel anlaşmalar gibi, ortak standartların oluşturulmasına yardımcı olabilir. Ayrıca halkın bilinçlendirilmesi ve katılımı da çok önemli. Bireyler bilgi sahibi olarak ve endişelerini dile getirerek politika ve uygulamaları etkileyebilirler.

Bhopal trajedisi bize sorumluluğu ihmal etmenin feci sonuçlara yol açabileceğini öğretiyor. Felaketin nedeni teknoloji eksikliği değildi; İnsan hayatını kurumsal çıkarların önünde tutmak bir başarısızlıktı. Yapay zeka konusunda da benzer bir yol ayrımındayız.

[Jibu Elias is an AI ethicist, activist, researcher, and currently the Country Lead (India) for the Responsible Computing Challenge at Mozilla Foundation]

Yasal Uyarı: Bunlar yazarların kişisel görüşleridir

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir