WinnoBot "Like A Human"

Shopping cart

Subtotal 0,00

View cartCheckout

OpenAI O1 Modeli Çince Düşünüyor!

OpenAI’nin O1 Modeli, Zaman Zaman Çince Düşünüyor

Bize de denk gelmişti, araştırmaya başladık. Meğer doğruymuş…

OpenAI’nin yeni “akıl yürütme” modeli O1, yayınlandıktan kısa bir süre sonra ilginç bir durum ortaya çıktı. Model, tamamen İngilizce yazılmış sorulara yanıt verirken bazen Çince, Farsça veya başka dillerde “düşünmeye” başlıyor.

Örneğin, “Strawberry kelimesinde kaç tane ‘R’ harfi var?” gibi basit bir soruya yanıt verirken O1, bazı adımları farklı dillerde işlemeye başlayıp ardından İngilizce yanıt veriyor.

Ancak OpenAI, bu garip davranışla ilgili resmi bir açıklama yapmadı. Peki, O1 neden farklı dillerde işlem yapıyor?

Yapay zeka araştırmacıları, O1’in bu davranışını birkaç farklı şekilde açıklıyor:

Eğitim Verisi ve Çin Etkisi:

  • Hugging Face CEO’su Clément Delangue, büyük AI modellerinin Çince karakterler içeren geniş veri kümeleriyle eğitildiğini belirtiyor.
  • Google DeepMind araştırmacısı Ted Xiao, birçok AI şirketinin Çin merkezli veri etiketleme hizmetleri kullandığını ve bunun O1’in akıl yürütme sürecine dilsel bir etki yapabileceğini düşünüyor.

Matematiksel ve Mantıksal Verimlilik:

  • AI modelleri, dil farkı gözetmeksizin en etkili şekilde sonuca ulaşmaya çalışır.
  • Hugging Face mühendisi Tiezhen Wang, bazı dillerin belirli görevler için daha verimli olabileceğini belirtiyor: “Matematik işlemlerini Çince yapmak daha kolay, çünkü her rakam sadece bir hece.”

Modelin Dil Algısı Farklı Çalışıyor:

  • Alberta Üniversitesi’nden Matthew Guzdial’a göre, modelin dili ayırt etmesi gibi bir durum söz konusu değil: “AI modeli için tüm diller sadece metin dizileridir. Model dillerin farklı olduğunu bilmiyor.”

Modelin Öğrenme Süreci Şeffaf Değil

Allen Institute for AI araştırmacısı Luca Soldaini, bu gibi fenomenlerin AI sistemlerinin opak yapısından kaynaklandığını söylüyor. Açık kaynaklı olmamaları nedeniyle, bu tür davranışların nedenini kesin olarak bilmek çok zor.

“Şu anki AI sistemlerinde neden-sonuç ilişkilerini belirlemek çoğu zaman mümkün olmuyor.”

OpenAI’nin Açıklama Yapması Bekleniyor

Şu an için, OpenAI’nin O1 modelinin neden bazı mantıksal adımları farklı dillerde yürüttüğünü tam olarak açıklamak mümkün değil. Ancak, büyük dil modellerinin eğitim sürecindeki dil dağılımı ve optimizasyon süreçleri bu durumu etkiliyor olabilir.

AI teknolojisinin daha şeffaf hale gelmesi için, bu tür olaylara yönelik daha fazla açıklama ve araştırma yapılması gerekiyor.

Comments are closed

× 7/24 Asistanımıza Yazın