Sohbet robotları neden bazen garip davranır ve saçma sapan şeyler yayar?

serdal

New member
Microsoft, geçen hafta Bing arama motorunun yeni bir sürümünü yayınladı ve sıradan bir arama motorunun aksine, sorulara net, özlü bir dille cevap verebilen bir chatbot içeriyor.

O zamandan beri insanlar, Bing sohbet robotunun ürettiği bazı şeylerin yanlış, yanıltıcı ve düpedüz tuhaf olduğunu fark etti ve bu da, etrafındaki dünyanın farkında olduğu veya duyarlı hale geldiğine dair korkulara yol açtı.

Konu bu değil. Ve nedenini anlamak için, sohbet robotlarının gerçekte nasıl çalıştığını anlamak önemlidir.

Chatbot canlı mı?


HAYIR. Tekrar söyleyelim: Hayır!

Haziran ayında, bir Google mühendisi olan Blake Lemoine, Google’da test edilen benzer sohbet robotu teknolojisinin bilinçli olduğunu iddia etti. Bu yanlış. Chatbot’lar habersiz ve zeki değiller – en azından insanlar kadar zeki değiller.

O zaman neden canlı görünüyor?


Geri çekilelim. Bing sohbet botu, sinir ağı adı verilen bir tür yapay zeka tarafından desteklenmektedir. Bu, bilgisayar kontrollü bir beyin gibi gelebilir, ancak terim yanıltıcıdır.

Bir sinir ağı, büyük miktarda dijital veriyi analiz ederek becerileri öğrenen matematiksel bir sistemdir. Örneğin bir sinir ağı binlerce kedi fotoğrafını incelerse bir kediyi tanımayı öğrenebilir.

Çoğu insan sinir ağlarını günlük olarak kullanır. Google Foto gibi internet hizmetlerinde yayınlanan resimlerdeki insanları, evcil hayvanları ve diğer nesneleri tanımlayan teknolojidir. Apple ve Amazon’un konuşan dil asistanları olan Siri ve Alexa’nın konuştuğunuz kelimeleri tanımasını sağlar. Ve Google Çeviri gibi hizmetlerde İngilizce ve İspanyolca arasında yapılan çeviri budur.

Sinir ağları, insanların dili kullanma şeklini taklit etmede çok iyidir. Ve bu, teknolojinin gerçekte olduğundan daha güçlü olduğuna inanmamıza neden olabilir.

Sinir ağları insan konuşmasını tam olarak nasıl taklit eder?


Yaklaşık beş yıl önce, Google ve yakın zamanda popüler ChatGPT sohbet robotunu piyasaya süren bir San Francisco kuruluşu olan OpenAI gibi şirketlerden araştırmacılar, kitaplar, Wikipedia makaleleri, sohbet günlükleri vb. internete konulan şeyler.


Bu sinir ağları, büyük dil modelleri olarak bilinir. İnsan dilinin matematiksel haritası gibi bir şey yaratmak için bu veri dağlarını kullanabilirler. Bu haritayı kullanarak, sinir ağları aşağıdakiler gibi birçok farklı görevi gerçekleştirebilir: B. kendi tweet’lerinizi yazmak, konuşmalar yazmak, bilgisayar programları oluşturmak ve evet, sohbet etmek.

Bu büyük dil modellerinin yararlı olduğu kanıtlanmıştır. Microsoft, tıpkı otomatik tamamlama araçlarının siz metin veya e-posta yazarken bir sonraki sözcüğü önermesi gibi, bilgisayar programcıları yazılım uygulamaları oluştururken bir sonraki kod satırını önerebilen büyük bir dil modeline dayalı bir araç olan Copilot’u sunar.

Diğer şirketler, pazarlama materyalleri, e-postalar ve diğer metinleri oluşturmak için kullanılabilecek benzer teknolojiler sunar. Bu teknoloji türü aynı zamanda üretken yapay zeka olarak da bilinir.

Şimdi şirketler bunun sohbet edebileceğiniz versiyonlarını mı çıkarıyor?


Kesinlikle. Kasım ayında OpenAI, ChatGPT’yi piyasaya sürdü ve genel halk ilk kez tadına baktı. İnsanlar şaşırdı – ve haklı olarak.

Bu chatbot’lar tam olarak insanlar gibi sohbet etmezler, ancak çoğu zaman öyle görünüyorlar. Ayrıca önlerine çıkan hemen hemen her konuda dönem ödevi, şiir ve saçma sapan yazabilirler.

Neden bir şeyi yanlış anlıyorsun?


Çünkü internetten öğreniyorlar. İnternette ne kadar yanlış bilgi ve diğer önemsiz şeyler olduğunu bir düşünün.

Bu sistemler ayrıca internette olanları kelimesi kelimesine tekrarlamazlar. Öğrendiklerine dayanarak, AI araştırmacılarının “halüsinasyon” olarak adlandırdığı yeni metinleri kendileri üretiyorlar.


Bu nedenle, aynı soruyu iki kez sorarsanız, sohbet robotları size farklı cevaplar verebilir. Gerçeğe dayansa da dayanmasa da her şeyi söylerler.

Sohbet robotları “halüsinasyon gördüklerinde” bu onları duyarlı yapmaz mı?


AI araştırmacıları, bu sistemlerin insan gibi görünmesini sağlayan terimleri kullanmayı sever. Ancak halüsinasyon, “bir şeyler uyduruyorlar” için akılda kalıcı bir terimdir.

Bu kulağa ürkütücü ve tehlikeli geliyor ama bu, teknolojinin bir şekilde canlı olduğu veya çevresinden haberdar olduğu anlamına gelmiyor. Sadece internette bulunan kalıpları kullanarak metin üretir. Çoğu durumda, kalıpları şaşırtıcı ve rahatsız edici şekillerde karıştırır ve birleştirir. Ancak ne yaptığının farkında değildir. İnsanlar gibi akıl yürütemez.

Şirketler, sohbet robotlarının garip davranmasını engelleyemez mi?


Deniyorlar.

OpenAI, ChatGPT ile teknolojinin davranışını kontrol etmeye çalıştı. Küçük bir grup insan sistemi özel olarak test ettiğinde, OpenAI onlardan yanıtlarını derecelendirmelerini istedi. Yararlı mıydılar? Dürüst müydüler? Daha sonra OpenAI, sistemi iyileştirmek ve ne yapıp ne yapmayacağını daha dikkatli bir şekilde tanımlamak için bu derecelendirmeleri kullandı.

Ancak bu tür teknikler mükemmel değildir. Bugünün bilim adamları, kesinlikle doğru olan sistemleri nasıl kuracaklarını bilmiyorlar. Hataları ve çılgınlığı sınırlayabilirsiniz ama durduramazsınız. Garip davranışı dizginlemenin yollarından biri, sohbetleri kısa tutmaktır.

Ancak sohbet robotları yine de doğru olmayan şeyler söyleyecektir. Ve diğer şirketler bu tür botları kullanmaya başladığında, herkes neyi yapıp neyi yapamayacağını kontrol etmekte iyi olmayacaktır.

Sonuç: Bir chatbot’un size söylediği her şeye inanmayın.
 
Üst