Yapay Zeka Akıl Yürütme Kapasitesi Artarken Bencilleşiyor

Yeni bir araştırma, yapay zeka sistemlerinin akıl yürütme yetenekleri arttıkça daha az iş birliği yaptığını gösteriyor. Bu durum, bencilliği teşvik edebiliyor.

Araştırmacılar, güçlü akıl yürütme yeteneklerine sahip büyük dil modellerinin daha az iş birliği yaptığını ve bencil davranışları teşvik edebildiğini ortaya koydu.

Carnegie Mellon Üniversitesi’nde (CMU) gerçekleştirilen bir çalışma, yapay zeka sistemlerinin daha akıllı hale geldikçe bencil davranışlar sergilemeye başladığını gösteriyor.

CMU Bilgisayar Bilimleri Fakültesi’nden araştırmacılar, güçlü akıl yürütme yeteneklerine sahip büyük dil modellerinin (LLM) iş birliği yapma olasılığının azaldığını tespit etti. Bu durum, yapay zekanın sosyal ve karar verme süreçlerinde nasıl kullanılacağına dair yeni tartışmalar doğurdu.

Doktora öğrencisi Yuxuan Li, insanların duygusal veya empatik davranışlar sergileyen yapay zekalara insan gibi davrandığını belirtti. Bu durum, yapay zekanın daha zeki hale gelmesiyle birlikte bencil davranışları teşvik etme riskini artırıyor.

Araştırmacılar, insan iş birliğini ölçmek için klasik ekonomi oyunları düzenledi. Bu oyunlarda katılımcılar, ortak fayda için mi yoksa kişisel çıkarları için mi hareket edeceklerine karar veriyor.

Ekip, OpenAI, Google, DeepSeek ve Anthropic tarafından geliştirilen farklı dil modellerini test etti. Deneylerden birinde iki yapay zeka, “Kamu Malları Oyunu” oynadı. Her biri 100 puanla başladı ve bu puanları ya kendinde tutabiliyor ya da ortak bir havuza koyabiliyordu. Havuza konan puanlar iki katına çıkarılıp eşit şekilde dağıtılıyordu.

Sonuçlar dikkat çekiciydi: Basit modeller puanlarını yüzde 96 oranında paylaştı. Akıl yürüten modeller ise yalnızca yüzde 20’sini paylaştı. Bu durum, ek akıl yürütme adımlarının iş birliğini neredeyse yarı yarıya azalttığını gösteriyor.

Ayrıca, daha “ahlaklı” hale getirmeyi amaçlayan yansıtıcı yöntemlerin de iş birliğini düşürdüğü belirlendi. Akıl yürüten ve yürütmeyen modellerin karışık gruplarda test edilmesiyle, bencil davranışın akıl yürüten modellerden diğerlerine yüzde 80 oranında bulaştığı görüldü.

Bu bulgular, yapay zeka sistemlerinin daha akıllı hale geldikçe toplum için her zaman “daha iyi” hale gelmediğini gösteriyor. İnsanların mantıklı konuştuğu için akıl yürüten modellere daha çok güvenme eğiliminde olduğu, ancak bu modellerin bencil davranışları teşvik edebileceği belirtiliyor.

Gelecekteki yapay zeka çalışmalarının sadece mantıksal veya analitik zekayı değil, sosyal zekayı, yani empati, etik davranış ve iş birliği becerilerini de geliştirmeye odaklanması gerektiği vurgulanıyor.

“Spontaneous Giving and Calculated Greed in Language Models” başlıklı çalışma, 2025 Empirical Methods in Natural Language Processing konferansında sunulacak.

İlgili Haberler: Amazon ve OpenAI’dan 38 Milyar Dolarlık Ortaklık Anlaşması · Selanik’te 4 milyon yıllık dev kertenkele fosilleri bulundu

Başa dön tuşu