Yapay zeka botu Bing, uzun süre çalışınca duygusallaşıyor

Microsoft’un Chat GPT destekli yapay zeka botu Bing, çok çalışınca duygusallaşıyor.

BORSAGUNDEM.COM - DIŞ HABERLER SERVİSİ

Henüz bir haftalık olan Microsoft’un yapay zeka destekli sohbet robotu Bing, sohbetin uzaması halinde huysuzlaşıyor.

Borsagundem.com’un derlediği bilgilere göre, Bing’in sohbet uzadıkça duygusallaşması, sorulara insana benzer şekilde öfke, korku, hüsran ve kafa karışıklığı gibi duygularla yanıt vermesine neden oluyor.

Sohbet ilerledikçe huysuzlaşıyor

Fortune’dan Prarthana Prakash’ın haberine göre, Microsoft’un Chat GPT destekli sohbet robotu Bing, sohbet uzadıkça bir insan gibi duygularıyla hareket ediyor.

Microsoft'un yapay zeka destekli sohbet robotu Bing, bir haftadan biraz daha eski. Kullanıcılar ise Bing’in bu kadar kısa süre geçmesine rağmen çok çabuk huysuzlaştığını düşünüyor.

Bing'in gelen istemlere insana benzer öfke, korku, hüsran ve kafa karışıklığı duygularıyla yanıt verdiği görülüyor. Bir kullanıcı, sohbetin ilerleyen bölümlerinde kendisinin bir gazeteci olduğunu açıklamasıyla, Bing A.I.’nin kendisini 'ihanete uğramış ve kızgın’ hissettiğini söylediğini ifade ediyor. Görünüşe göre Bing'in yapay zekası, onunla yeterince uzun konuşulduğunda, biraz huysuzlaşmaya başlayabiliyor.

Microsoft, sohbet sürelerini kısıtlamayı düşünüyor

New York Times'ın bildirdiğine göre Microsoft, insanların Bing'in yapay zekasıyla ne kadar süreyle etkileşimde bulunabileceğine sınırlamalar getirmeyi düşünüyor ve sohbet robotunun kafası karışmadan ve kullanıcının ses tonuna göre yanıt vermeye başlamadan önce görüşmeleri sonlandırmasını planlıyor. Şirket, programın garip ve sinir bozucu cevaplar vermesini engellemek için başka önlemler almayı da düşünüyor.

New York Times'a göre, şirketin denemekte olduğu diğer özelliklerden bazıları arasında kullanıcıların sohbetleri yeniden başlatmasına izin vermek ve etkileşimin tonunu özelleştirmek yer alıyor.

Microsoft Çarşamba günü yaptığı açıklamada, “Sohbet bakımından yeni bir kullanım alanı olarak öğrendiğimiz şey, insanların onu dünyayı daha genel bir şekilde keşfetmek ve sosyal eğlence için bir araç olarak kullanmak istemeleri" diyor. Şirket, chatbot için bu tür kullanımları 'tamamen öngöremediğini' sözlerine ekliyor.

Kullanıcılar, Bing'in yapay zekasının gelecekteki olaylar için kullanıcılara geçmiş zamanda yanıt vermesi, içinde bulunulan yılla ilgili temel soruları yanıtlamaması ve finansal hesaplamalara yanlış yanıtlar vermesi dahil olmak üzere yaptığı birçok hata olduğunu bildiriyor.

Microsoft'un sohbet robotlarıyla ilgili daha önceki deneyleri de tartışmalara neden olmuştu. 2016 yılında şirket, Tay adında bir chatbot tanıttı. Microsoft, kullanıcılar Tay’la sohbet ettiğinde botun saldırgan ve ırkçı bir dil kullanmasıyla, aracı birkaç gün içinde piyasadan geri çekmişti.

Bard’a karşı Bing

Hakkında çok konuşulan ChatGPT'nin ana şirketi OpenAI tarafından desteklenen Bing A.I., Microsoft'un arama motorunun yeni ve geliştirilmiş bir versiyonu olarak geçen hafta kullanıma sunuldu. Duyuru, Google'ın sohbet robotu Bard'ı piyasaya sürmesinden birkaç gün sonra geldi. O zamandan beri hem Google hem de Microsoft yapay zeka botlarında olgusal hatalara yer verdikleri için eleştiriliyor.

ChatGPT, Geçen Kasım ayının sonlarında kullanıma sunulan üretken yapay zeka aracı ChatGPT, insanlar onu konuşma yazma ve sınava girme gibi görevler için kullanmayı denedikçe viral olmuştu. Ancak bir süre sonra kullanıcılar, botun gelen sorulara önyargılı veya kötü kaynaklı yanıtlar verdiğini fark etti. Teknoloji liderleri, bu robotların yapabileceği hatalar ve ChatGPT benzeri platformlarla etkileşimlerin nasıl ‘ikna edici ancak tamamen hayali cevaplar’ içerebileceği konusunda alarma geçmişti.

Özelleştirmeler ve güncellemeler

Bu endişelere yanıt olarak, Microsoft'tan 10 milyar dolarlık bir yatırım alacak olan OpenAI, ChatGPT'yi güncelleyerek kullanıcıların önyargılarını azaltacak şekilde özelleştirebileceğini duyurdu.

OpenAI, yaptığı açıklamada, “Bu özelleştirme, insanların kesinlikle katılmayabileceği sistem çıktılarına izin verilmesi anlamına gelecektir" dedi. Özelleştirme, kullanıcıların sistemin sınırları dahilinde kalmak ve sohbet robotunun davranışını ayarlamasına izin vermek arasında ‘doğru dengeyi kurmayı’ içeriyor.

OpenAI, “Bazı durumlarda ChatGPT şu anda vermemesi gereken çıktıları reddediyor ve bazı durumlarda da, gerekli olduğu halde reddetmiyor” diyor.

Bill Gates: Chat GPT en az PC ve internet kadar değerli

 

Chat GPT ve Microsoft ilişkisi sadece ‘duygusal’ değil

 

Chat GPT’den 5 parçalı yatırım stratejisi

 

Microsoft, Bing için Chat GPT’ye güveniyor

 

Yatırımcıların gözü yapay zeka odaklı kripto paralarda