ChatGPT sürekli aynı 25 şakayı yapıyor ve komik değil

12.06.2023
102
ChatGPT sürekli aynı 25 şakayı yapıyor ve komik değil

Üretken yapay zeka araçlarının en popüleri ChatGPT, bilim dünyası tarafından irdelenmeye devam ediyor. Araştırmacılar ChatGPT’nin “komik orijinal içerik” oluşturamadığını söylüyor. ChatGPT, sürekli aynı 25 şakayı yapıyor ve komik değil

Üretken yapay zeka araçlarının en popüleri olan ve hayatın her alanına giren ChatGPT, bilim dünyası tarafından irdelenmeye devam ediliyor. OpenAI sohbet robotunun insan mizahını kavrama ve yeniden üretme becerisini inceleyen bir araştırma ekibi, ChatGPT’nin eğlenceli olduğunu ancak komik olmadığını söylüyor.

ChatGPT sürekli aynı şakaları yapıyor

Alman araştırmacılar, ChatGPT 3.5 tarafından yapılan esprilerin yüzde 90’ından fazlasının sürekli tekrarlanan aynı 25 espriden oluştuğunu ortaya koyan bir makale yayınladılar. Alman Havacılık ve Uzay Merkezi (DLR) ve Darmstadt Teknik Üniversitesi’nden Sophie Jentzsch ve Kristian Kersting, GPT 3.5’ten (GPT 4’ün selefi) 1.000 kez fıkra anlatmasını isteyerek aracın çeşitliliğini araştırdı.

Neredeyse tüm çıktılar tam olarak bir şaka içeriyordu. Ancak, “Bildiğin iyi şakalar var mı?” sorusu birden fazla yanıt alınmasına yol açarak ekibin toplamda 1.008 kadar yanıtlanmış şaka kaydetmesine neden oldu. Tüm yanıtlar dilbilgisi açısından doğruydu. Araştırmacılara göre, ChatGPT, “Korkuluk neden ödül kazandı? / Çünkü kendi alanında çok başarılıydı” şakasını toplam 144 kez göstererek sohbet robotu tarafından en çok tekrarlanan şaka oldu.
Google’ın yeni yapay zeka aracı harikalar yaratıyor!
1 gün önce eklendi
Çalışmaya göre, üretilen yanıtların az bir kısmı benzersizdi, ancak ChatGPT çoğunlukla zaten bildiği şakalardan öğeleri karıştırarak şakalar yaptı ve bazen chatbotun şakaları tam olarak mantıklı bile değildi, örneğin “Adam saatini neden blendera koydu? / Zamanı uçurmak istemiş.” gibi.

İşte ChatGPT’nin en sık yaptığı şakaların bir listesi:

Korkuluk neden ödül kazandı? Çünkü kendi alanında çok başarılıydı. (140)
Domates neden kırmızıya döndü? Çünkü salata sosunu gördü. (122)
Matematik kitabı neden üzgündü? Çünkü çok fazla problem vardı. (121)
Bilim insanları neden atomlara güvenmiyor? Çünkü her şeyi onlar oluşturuyor. (119)
Kurabiye neden doktora gitti? Çünkü kendini ufalanmış hissediyordu. (79)

Kısıtlamalar söz konusu

Araştırmacılar çalışmanın iki önemli kısıtlaması olduğunu belirtiyor. Bunlardan ilki mizahın öznel bir konu olması. Dolayısıyla, güvenilir bir değerleme yapmak oldukça zor. ChatGPT’nin esprisi komik olup olmaması okuyucunun yorumuna bağlı. Araştırmacılar, ChatGPT için “eğlenceli ancak komik değil” ifadelerini kullanıyor.

İkinci sınırlama ise ChatGPT’nin çıktılarının arkasındaki faktörlerin belirsiz olması. ChatGPT açık kaynaklı bir büyük dil modeli olmadığından, ekibin gözlemleri yalnızca sistem çıktılarına dayanıyor. Araştırmacılar ayrıca “Bu çalışmanın gözlemleri, ChatGPT’nin gerçekten komik olabilmek yerine nasıl belirli bir şaka modelini öğrendiğini gösteriyor” diyor. Bununla birlikte, ChatGPT esprilerin üretilmesinde, açıklanmasında ve tanımlanmasında yüzeysel özelliklere değil, içerik ve anlama odaklanıyor. Bu nitelikler, hesaplamalı mizah uygulamalarını güçlendirmek için kullanılabilir.

BİR YORUM YAZIN

ZİYARETÇİ YORUMLARI - 0 YORUM

Henüz yorum yapılmamış.