Görüntülerin ne olduğunu belirleyecek bir yapay zeka geliştiriyorsak ve bunu önemli amaçlar için kullanacaksak gösterdiğimiz her nesnenin kendisini veya en azından en yakın ailesini bize cevap olarak sunmasını isteriz. Yapay zekamıza bir kaplumbağa şeklini sunduğumuzda bize tüfek cevabını veriyorsa bir şeylerin ters gittiğini anlarız.

MIT çalışanları Google’ın yapay zekası üzerinde bir takım çalışmalarda bulanacaklarını açıklamışlardı ve kısa süre önce de bu konu hakkında bilgilendirme yazısı paylaştılar. Çalışmalarında bahsettiklerine göre yapay zekaya karşı düşman bir görüntü sunarak onu kandırmayı hedeflediklerini söylemektedirler. Örneğin yapay zekanın kolaylıkla tanımlayabileceği görüntüler üzerinde renk dengesi oynamaları, resmin döndürülmesi, hafif kırpmalar yaparak gerçekten de kandırıp kandıramayacaklarını test ettiler.

Ve test sonucunda, yukarıdaki belli basit değişiklikleri uyguladıklarında ve bunlardan yapay zekanın haberi olmadığında yanlış çıkarımlar yaptığını saptadılar.

MIT araştırmacıları işi biraz daha ileri götürerek, 3D çıktısı alınmış bir kaplumbağa dokusunu yapay zekaya sundular. Görüntü üzerinde oynamalar yapıldıktan sonra bir garip görünse de hala kaplumbağa olduğu kolaylıkla sezilebiliyordu.  Yapay zeka ise yemi yutmuştu ve görüntünün %90 kesinlikle birlikte bir tüfek olduğuna karar vermişti. Aynı işlemi bir beyzbol topuyla yaptıklarında da yine büyük kesinlikte espresso sonucu almışlardır.

Araştırmacılar çalışmalarının ardından, “İşimiz gösterdi ki düşman görüntüler gerçek dünya sistemleri için eskisinden daha büyük ve ciddi problem yaratmaktadır.” açıklamalarında bulundular.

Bunun neden sorun olabileceğini incelersek, bir kaplumbağanın tüfek gibi görünmesi yanlış alarm olsa da bir tüfeğin kaplumbağa gibi görünmesi ölümcül bir hata olabilirdi.

 

Kaynak: https://www.theguardian.com/technology/2017/nov/03/googles-ai-turtle-rifle-mit-research-artificial-intelligence

CEVAP VER

Please enter your comment!
Please enter your name here