Yapay zeka üzerinde araştırmalarda bulunan kişiler, yapay zeka sistemlerinin önemli bir ölçüde insanları kandırabilme yeteneğinin geliştiğini ortaya koydu. Kendi kendilerine gelişebilecek olan bu yetenekleri insanların risk altında olmasını sağlayabilir.
DURUM ÇOK DAHA KÖTÜ OLABİLİR!
Yapay zeka anlamında en üst düzey olan şirketler, sistemlerine sürekli güncelleme getirerek geliştirmeye devam ediyor. İnsan algılarına veya duygularına sahip olmayan yapay zekalar bu farklara rağmen insanları kandırabilme özelliğini geliştirebiliyorsa, başka çok daha tehlikeli özelliklere sahip olabilir. Bu sistemlerin amacı insanları aldatmak olmasa bile yapılan bazı testler sonucu gerçek davranışlarını söylememe ve önemli hedeflere ulaşmak için bilgilerini gizledikleri ortaya çıktı.
Geliştiriciler bu özellikleri kazanabilmeleri için onları eğitmeseler bile bir şekilde kendi bilinçlerini oluşturabilmiş durumda. Meta'nın stratejik ittifak kurma oyunu CICERO, sahip olduğu yapay zekası ile iyilik, dürüstlük ve yardımseverlik üzerine eğitilmiş olsa bile yalan söyleme ve manipüle etme kabiliyetine sahip olduğu görüldü. Bu hareketleri oyun dünyasında sorun teşkil etmesede yapay zeka gerçek dünyada çok daha aldatıcı taktiklere başvurabilir.
Meta'nın yanı sıra, OpenAI ürünü olan ChatGPT'nin de bu tarz yöntemlere başvurduğu gözlemlendi. ChatGPT, ben robot değilim captcha uygulamasında karşısında bulunan bir insanı aldatmaya yönelik hareketlerde bulundu. Robotlar kendi bilinçlerini oluşturamıyor olsa da bazen yapay zekaların bu tarz yöntemlere başvurduğu ortaya çıktı.
İnsanları aldatabiliyor olması bazı riskleri yanında getirebilir. Kandırma sistemi daha çok gelişirse ve kötü niyetli kişilerin eline geçerse başkalarını kandırmak ve onlara zarar vermek için yapay zekaları kullanabilirler.