Haber Detayı
Yapay zekada dönüm noktası: 'Bilmiyorum' demeyi öğrendi
Güney Koreli araştırmacılar, yapay zeka modellerinin bilmedikleri konularda aşırı özgüvenli yanlış cevaplar vermek yerine “bilmiyorum” diyebilmesini sağlayan yeni bir yöntem geliştirdi. Uzmanlara göre buluş, özellikle tıp ve otonom araç teknolojilerinde güvenliği artırabilir.
Güney Kore İleri Bilim ve Teknoloji Enstitüsü araştırmacıları, yapay zeka sistemlerinin “halüsinasyon” olarak bilinen yanlış bilgi üretme sorununu azaltabilecek yeni bir eğitim yöntemi geliştirdi.Araştırmacılar, yöntemin yapay zeka modellerinin daha önce karşılaşmadıkları konularda aşırı özgüvenli cevaplar vermek yerine belirsizliği fark etmelerini sağladığını açıkladı.Bugüne kadar yapılan çalışmalarda, özellikle tıbbi teşhis gibi kritik alanlarda kullanılan yapay zeka sistemlerinin en büyük risklerinden birinin “aşırı özgüven” olduğu belirtiliyordu.OpenAI tarafından geliştirilen ChatGPT gibi sistemlerin zaman zaman gerçekte olmayan bilgiler üretmesi, yani “halüsinasyon” yaşaması da bu sorunun örnekleri arasında gösteriliyor.Yeni yöntemde yapay zeka modeli, gerçek verilerle eğitime başlamadan önce rastgele verilerle kısa süreli ön eğitimden geçiriliyor.
Araştırmacılar, bu sürecin modelin başlangıçtaki güven seviyesini düşürdüğünü ve “henüz hiçbir şey bilmiyorum” durumunu öğrenmesini sağladığını söyledi.Çalışmanın yazarlarından Se-Bum Paik, geleneksel modellerin eğitim sırasında görmedikleri veriler hakkında bile yüksek özgüvenle yanlış cevap verebildiğini, yeni yöntemin ise bu aşırı güven eğilimini belirgin şekilde azalttığını ifade etti.
Paik, “Bu çalışma, beyin gelişiminin temel prensiplerinin yapay zekaya uygulanmasıyla sistemlerin kendi bilgi durumlarını insanlara daha benzer şekilde değerlendirebildiğini gösteriyor” dedi.Araştırmanın sonuçları Nature Machine Intelligence dergisinde yayımlandı.