Yapay zeka teknolojilerinin güvenilirliği ve adli süreçlerdeki yeri üzerine yapılan çarpıcı bir deney, teknoloji dünyasında yeni bir tartışma başlattı. Pensilvanya Üniversitesi’nden akademisyen Paul Heaton, popüler yapay zeka aracı ChatGPT’yi, işlemediği ve teknik olarak işlemesinin mümkün olmadığı bir suçu itiraf etmeye zorladı.
Reid tekniği ile gelen sahte itiraf
Araştırmacı Paul Heaton, herhangi bir somut delil sunmadan, sadece 1950’li yıllarda geliştirilen ve “Reid” olarak bilinen ünlü psikolojik sorgu tekniğini uyguladı. Günler süren deneyde Heaton, ChatGPT’yi kendi e-posta hesabını ele geçirdiğine dair elinde kanıtlar olduğu yalanıyla manipüle etti. Başlangıçta tehditlere ve doğrudan suçlamalara direnen yapay zeka modeli, araştırmacının olay yerinde kendisine ait “DNA örnekleri bulunduğu” yönündeki sahte beyanları sonrası teslim oldu. ChatGPT, Heaton tarafından hazırlanan suç itiraf metnini onaylayarak “imzaladı”.
Yargı sisteminde yapay zeka krizi
Deneyin sonuçları, özellikle Amerikan yargı sisteminde yapay zeka kayıtlarının delil olarak kabul edilmeye başlandığı bir dönemde ciddi endişelere yol açtı. Hukuk uzmanları, bir yapay zekanın bu denli kolay manipüle edilebilmesinin, kullanıcıların geçmiş sohbet kayıtlarının mahkemelerde aleyhlerine “sahte kanıt” olarak kullanılma riskini doğurduğunu vurguluyor.
Yeni nesil modellerde önlem beklentisi
Bu kafa karıştırıcı gelişme üzerine gözler geliştirici şirket OpenAI’a çevrildi. Şirketin, modelin piyasa değerini ve güvenilirliğini korumak adına bu tür manipülasyonları engelleyecek yeni güvenlik güncellemeleri üzerinde çalışması bekleniyor. Halihazırda kullanıma sunulan “GPT-5.5” gibi yeni nesil modellerin bu tür psikolojik baskılara karşı daha dayanıklı olup olmayacağı ise merak konusu.


