Birinde babamın pet sonucu raporunu attım. Bana orada olmayan bir yorumu söyleyip durdu. Dedim bu burada yazmıyor, "aa haklisin" dedi.
Şimdi bir haber sordum "bu sorunu birçok kişi yaşamış. Yaygın bir sorun" dedi ve kaynak verdi. Kaynaklarin hepsi tek kişi ile alakalı. Dedim bunlar hepsi tek kişi yaşamış "aa haklisin, yaygin sorun değil" dedi.
Bu ai'dan şu aşamada beklenen bir salaklık mi?
AI'ın belli süreçlerde saçmalama oranlarının yükselmesinin beklenen bir şey olduğuyla ilgili sağlam bir makale okumuştum bir ara. Hatta bunun terimsel bir adı da vardı.
Tam detaylarıyla hatırlamıyorum ancak AI eğitilme sürecinde belli bir noktayı hedeflemiyor, bir müddet sonra aynı klasik sanatlardan sürrealizme geçer gibi absürtleşmeye başlıyor. Bu noktada bir takım ayarlamalar vs. yapmaları gerekiyormuş. Bununla ilgiliydi.
Buna yönelik aramalar yapabilirsiniz. Şimdi vaktim yok ama ben hızlıca bakınca "model degradation" ve "model drift" diye iki kavrama rastladım. Bir bakın.
Yapay zekanın çoğu bilgisi hatalı oluyor, çok da güvenme.
@cemallamec; yani çoğu diyemem. Çok şeyde yardımcı oldu. Ama bu galiba üçüncü, bir keresinde de "bu böyle" dedi. Kuralı bulup linki yolladim "aa evet bu degismis bilmiyordum sagolasin gardas" dedi.
Bazen çok güzel de googledaki veriyi bile bulamayip benden alinca "hee tamam" diyen ai beni bir tık üzdü. Microsoft copilot bu arada.
@honda; abi bu ai beni replace edecek deniliyordu, google'dan veriyi bile cekemedi :(
Chat-gpt ve benzeri LLM’lerin temeli insan gibi cümle kurabilmesine dayalı. Fact checking yetenekleri kısıtlı, size verdiği bilgiyi özümseyen bir yapı yok sonuçta. İstatistiksel olarak en doğru cümleyi kuruyor, cümle yapısında istatistiksel olarak en doğru görünen bilgiyi paylaşıyor, haliyle kendinden çok emin bir şekilde saçmalayabiliyor.
siz chatgpt nin ne olduğunu yanlış anlamışsınız. chatgpt bir yapay zeka değil, dil modeli. anlamlı cümle üretir.
@archmage mahmut çok güzel açıklamış.