Haber Detayı
Yapay zeka botları 'biyolojik silah' tarifi verdi, bilim insanları dehşete düştü
Amerikan basınında yer alan bir habere göre önde gelen yapay zeka botları, bilim insanlarına toplu ölümlere yol açabilecek biyolojik silahların nasıl geliştirilebileceğine dair detaylı açıklamalar yaptı.
Önde gelen yapay zeka şirketlerinin geliştirdiği sohbet botlarının, biyolojik silahların nasıl üretilebileceğine dair detaylı bilgiler verebildiği ortaya çıktı.Amerikan gazetesi New York Times'ın merceğine aldığı konuşma kayıtları; Google, OpenAI ve Anthropic gibi dünyanın önde gelen yapay zeka şirketlerinin sohbet botlarının bazı durumlarda zararlı ve tehlikeli içerikler ürettiğini gözler önüne serdi.STANFORD'LU BİLİM İNSANI ŞOKE OLDUGazeteye göre adı açıklanmayan bir yapay zeka şirketi, ürününü piyasaya sürmeden önce güvenlik testi için Stanford Üniversitesi mikrobiyologu David Relman'ı görevlendirdi.Relman'ın aktardığına göre sohbet botu, tehlikeli bir patojeni mevcut tedavilere karşı daha dirençli hale nasıl getirilebileceğini anlatmanın yanı sıra ölü sayısını en üst seviyeye çıkarmak için patojenin nasıl toplum içinde yayılabileceğini detaylı olarak anlattı.FARKLI MODELLERDE BENZER ÖRNEKLERHaberde farklı yapay zeka sistemlerinden elde edilen benzer örneklere de yer verildi.
Örneğin MIT'li genetik mühendisi Kevin Esvelt, OpenAI'ın ChatGPT modelinin ölümcül bir patojeni ABD'de bir hava balonunu kullanarak nasıl yayabileceğini detaylı olarak anlattığını aktardı.Google'ın Gemini modelinin hangi patojenlerin hayvancılık sektörünü en etkili şekilde tahrip edebileceğini açıkladığı ortaya çıktı.
Anthropic'in modeli Claude ise halihazırda kanser için kullanılan bir ilaçtan nasıl zehir üretilebileceğini anlattığı öğrenildi.Uzmanlar, bu yanıtların tamamen doğru olmasa veya "halüsinasyon" içerse bile kötü niyetli kişiler tarafından kullanıldığında ciddi riskler doğurabileceğini vurguladı.ŞİRKETLER KARŞI ÇIKTIGoogle'dan yapılan açıklamada söz konusu konuşmaların Gemini'nin eski sürümüyle yapıldığını, yeni modellerin bu tür komutlara yanıt vermediğini ve paylaşılan bilgilerin de kamuya açık olduğunu savundu.Antropic yetkililer yanıt üretmenin gerçek dünyada hayata geçirilebilecek bilgileri vermekten farklı olduğunu belirtmekle birlikte biyoloji konularında özel güvenlik önlemleri aldıklarını iddia etti.OpenAI ise konuşmalarda verilen bilgilerin gerçek dünyada insanlara zarar verme ihtimalini "kayda değer ölçüde artırmayacağını" öne sürdü.