Gelişmekte olan bir teknoloji aracıyla etkileşime geçmenin derinden bağlı olduğunuz inançlarınızı değiştirebileceğini düşünüyor musunuz? Veya aksi takdirde vermeyeceğiniz bir karara doğru sizi etkilemek mi istiyorsunuz? Biz insanlar olarak çoğumuz bunu yapamayacak kadar akıllı olduğumuzu düşünüyoruz, ancak giderek artan kanıtlar aksini gösteriyor.
Yeni bir üretken yapay zeka teknolojisi seti söz konusu olduğunda, “ikna”nın gücü, modellerin özerklik kazanabileceği veya nükleer silah yapımına yardımcı olabileceği korkusunun yanı sıra potansiyel olarak felaket riski olarak tanımlandı. Ayrı olarak, davranışı etkilemeyi amaçlayan düşük riskli yaratıcı öğeler çoğumuzun her gün kullandığı ürünlerde zaten her yerde bulunuyor ve bu da bizi sosyal medya platformlarında durmadan gezinmeye veya “seriyi” sürdürmek için Snapchat veya Duolingo’yu açmaya sevk ediyor.
Ancak Çin’de ortaya çıkan bu teknolojideki son gelişmeler, yeni ulusal güvenlik endişelerini artırıyor. ABD Dışişleri Bakanlığı tarafından finanse edilen ve Avustralyalı bir düşünce kuruluşu tarafından yayımlanan yeni araştırma, Çinli teknoloji şirketlerinin “benzeri görülmemiş ikna edici güçlere” sahip teknolojiler yaratmanın ve uygulamaya koymanın eşiğinde olduğu sonucuna varıyor.
Güvenlik açısından bakıldığında bu, Pekin veya diğer aktörler tarafından siyasi görüşleri etkilemek veya toplumsal huzursuzluk ve bölünmeyi ekmek için kullanılabilir. Başka bir deyişle, düşmanları savaşmadan bastırmaya yönelik bir silah, Çinli filozof General Sun Tzu’nun vaaz ettiği bir savaş taktiği.
Avustralya Stratejik Politika Enstitüsü’nün geçen hafta yayınlanan raporu, Çin’in ticari sektörünü, fizyolojik veya bilişsel zayıflıklardan yararlanarak tutum veya davranışları değiştirmek için tasarlanan ürünleri geliştirme ve benimseme konusunda “gerçekten küresel bir lider” olarak tanımladı. Bunu başarmak için bu araçlar büyük ölçüde topladıkları kişisel verileri analiz etmeye ve ardından kullanıcılarla etkileşimleri tasarlamaya dayanır. Makale, Pekin’in propagandasını ve askeri hedeflerini desteklemek için üretken yapay zeka, sanal gerçeklik ve daha da gelişmekte olan nöroteknoloji sektörünü içeren bu tür teknolojiyi halihazırda kullandığını söylediği bir avuç Çinli şirketin kimliğini tespit ediyor.
Ancak bu aynı zamanda büyük ölçüde küresel bir sorundur. Çin’in özel sektörü ikna taktikleri geliştirmek için hızla ilerliyor olabilir, ancak kullanıcılarını daha iyi anlamak ve onları etkileşimde tutmak için ABD’deki büyük teknoloji şirketlerinin geliştirdiği taktikleri takip ediyor. Pekin’in risklerini ele almak, teknoloji ürünlerinin hayatlarımızı etkilemesine nasıl izin verdiğimizi doğru bir şekilde ifade etmemizi gerektirecek. Ancak yeni ulusal güvenlik riskleri, yapay zeka ve diğer yeni inovasyonların bu araçların etkinliğini hızla artırabilmesi, Silikon Vadisi ürün tasarımında iknanın zaten yerleşmiş olduğu bir zamanda bir uyandırma çağrısı görevi görmelidir.
Bu konuyu ele almayı bu kadar zorlaştıran şeylerden biri de bunun iki ucu keskin bir kılıç olabilmesidir. Bu yılın başlarında yayınlanan bilimsel bir çalışma, yapay zeka modelleriyle sohbet etmenin, komplo teorisyenlerini, bunun kimlikleri için önemli olduğunu söyleyenler arasında bile inançlarını küçümsemeye ikna edebildiğini ortaya çıkardı. Araştırmacılara göre bu, büyük dil modellerinin olumlu “ikna edici güçlerini” ve kişilerarası diyaloğa girme yeteneklerini vurguladı.
Bu yetkilerin Pekin veya diğer kötü aktörler tarafından hain kampanyalarda kullanılmasının nasıl önleneceği, politika yapıcılar için gelişmiş yarı iletkenlere erişimin kesilmesinin ötesine geçen giderek büyüyen bir zorluk oluşturacaktır.
Daha fazla şeffaflık talep etmek, teknoloji şirketlerinin içerik davranışları etkileyebilecek şekilde tasarlandığında net açıklamalar yapmalarını zorunlu kılarak başlamanın bir yolu olabilir. Veri koruma yasalarının genişletilmesi veya kullanıcılara bilgilerinin toplanmasından vazgeçmeleri için daha net yollar sağlanması, bu araçların kullanıcıları bireysel olarak hedefleme yeteneğini de sınırlayacaktır.
Dijital okuryazarlığa ve eğitime öncelik vermek, ikna teknikleri, algoritmaların ve kişiselleştirilmiş içeriğin nasıl çalıştığı, taktiklerin nasıl tanınacağı ve bu sistemler tarafından potansiyel olarak manipüle edilmekten kaçınılacağı konusunda farkındalığı artırmak için de gereklidir.
Sonuçta, insanları ikna edici teknolojinin tehlikelerinden nasıl koruyacağımız konusunda daha fazla araştırmaya ihtiyaç var ve OpenAI ve Anthropic gibi şirketlerin yapay zeka ile yapmaya başladığı gibi, bu araçların arkasındaki şirketlerin de bu sorumluluğu üstlenmesi akıllıca olacaktır. Politika yapıcılar aynı zamanda şirketlerden, bu teknolojilerin düşmanlar tarafından nasıl kullanıldığına dair küresel bir anlayış oluşturmak için bulgularını düzenleyiciler ve ilgili paydaşlarla paylaşmalarını talep etmelidir. Bu bilgi daha sonra net standartlar veya hedef düzenlemeleri belirlemek için kullanılabilir.
Pekin’in inandıklarınızı veya kim olduğunuzu değiştirmek için ipleri eline almasına izin verecek kadar gelişmiş teknoloji tehdidi, hala bilim kurgudan uzak bir endişe gibi görünebilir. Ancak riskler, küresel politika yapıcıların bu kriz ortaya çıkana kadar müdahale edemeyecek kadar büyük. Artık teknoloji şirketlerine hayatlarımız üzerinde ne kadar kişisel bilgi verdiğimiz ve ne kadar etki ettiğimiz konusunda küresel bir hesaplaşmanın zamanı geldi.
(Başlık dışında bu hikaye NDTV personeli tarafından düzenlenmemiştir ve ortak bir yayından yayınlanmıştır.)
- Gucerat’ta inşaat halindeki tren köprüsünün çökmesi sonucu 3 kişi hayatını kaybetti
- Çağrı Merkezi, Dharavi Yeniden Geliştirme Projesi İçin Büyük Sosyal Yardım Araştırmaları
- UP, Kerala ve Pencap’ın tarihi 13 Kasım’dan 20 Kasım’a değiştirildi
- Mumbai’de bir adam polis gibi davranarak arabaya atlıyor ve e-sigara kullandığı için bir kadından 50.000 rupi talep ediyor.
- Barcelona-Espanyol canlı yayın La Liga canlı: ne zaman ve nerede izlenir