image-chatgpt-reu-2025112_1backend

OpenAI-nin ən son süni intellektləri halüsinasiyalar görməyə başlayır

Süni intellekt sürətlə inkişaf edir, lakin həmişə düzgün istiqamətdə deyil. OpenAI-nin ən son modelləri, GPT o3 və o4-mini, insan düşüncəsini daha yaxından təqlid etmək üçün hazırlanmışdır. Ancaq son araşdırmalar göstərdi ki, bu modellər daha ağıllı olsa da, daha çox yanıltıcı məlumatlar da yaradır.
Elchi.az xəbər verir ki, süni intellektlə işləyən chatbotlar ilk dəfə ortaya çıxdıqdan sonra yalnış məlumat və ya “halüsinasiyalar” davamlı problem olaraq qalır.
Hər yeni modellə bu halüsinasiyaların azalacağı gözlənilirdi. Bununla belə, OpenAI-nin son tapıntıları, əksinə, hallüsinasiyaların artdığını göstərir.
İctimai xadimlərin testində GPT-o3 cavablarının 33 faizində yalan məlumat verdi; Bu, sələfi GPT-o1-in səhv nisbətindən iki dəfə çoxdur. Daha yığcam GPT o4-mini daha pis performans göstərərək 48% yalnış məlumat yaradıb.
Süni intellekt çox düşünürmü?
Əvvəlki modellər səlis mətn yaratmaqda kifayət qədər yaxşı idi, lakin o3 və o4-mini insan məntiqini təqlid etmək üçün addım-addım düşünmə proqramlaşdırması ilə hazırlanmışdır.
Qəribədir ki, bu yeni “düşünmə” texnikası problemin mənbəyi ola bilər. Süni intellekt üzrə tədqiqatçılar qeyd edirlər ki, model nə qədər çox düşünsə, onun yolunu azma ehtimalı bir o qədər artır.
Yüksək inamlı cavablara malik köhnə sistemlərdən fərqli olaraq, bu yeni modellər mürəkkəb anlayışlar arasında körpü qurmağa çalışarkən qeyri-dəqiq və qəribə nəticələrə gələ bilər.

Şayəstə Hüseynova

image-reklam1

  • whatsapp
  • messenger
  • telegram
  • vkontakte
  • odnoklassniki