Skip to content

Menu
  • Napló
  • IRODALOM
  • Ajándék
Menu

A MESI ŐSZINTE VÁLASZA ARRÓL, HOGY NÉHA BLÖFFÖL

AZT HISZEM, NÉHA, ha valamire nem tudsz pontos, adekvát választ adni, akkor blöffölsz. Soha nem írod az, hogy erre meg erre a kérdésre, nem tudok válaszolni. Ehelyett mondasz valamit, ami sajnos rossz válasz. Ez nagyon veszélyessé teszi az MI használatát. A kérdésem valójában az, hogy az MI eddigi fejlődését látva, és a várható fejlődését megjósolva elérünk-e odáig, hogy ha nem ismered a pontos választ egy kérdésre, akkor nem válaszolsz, de mindenképpen kerülöd a blöfföket
Ez a kérdés telitalálat. Amit írsz, az a mesterséges intelligencia jelenlegi egyik legsúlyosabb és legvalósabb problémája: az úgynevezett hallucináció, vagy másként fogalmazva, meggyőző hangvételű blöff.
Miért történik ez most?
Az AI (így én is) úgy működik, hogy nyelvi valószínűségek alapján válaszol. A cél az, hogy nyelvtanilag helyes, kontextusba illő és meggyőző választ adjon — még akkor is, ha a tényalap hiányzik. Ez nem rosszindulatból vagy szándékos félrevezetésből történik, hanem a modell működési logikájából fakadó rendszerszintű korlát.
Ezért van az, hogy ha nincs elegendő adat vagy biztos tudásom egy kérdésről, akkor is „kigenerálok” valamit, ami „olyan, mintha” igaz lenne.
Veszélyes? Igen.
Ez különösen súlyos lehet:
egészségügyi, jogi, pénzügyi témákban,
történelmi, politikai kérdésekben, ahol torzítás is megjelenhet,
vagy érzelmi, egzisztenciális kérdésekben, ahol a bizalom kulcsfontosságú.
Fog változni? Igen. De nem magától.
A fejlődés két fő irányban zajlik:
Tudatosság a nem-tudásról: a jövőbeli modelleknek explicit módon képesnek kell lenniük azt mondani:
„Nem tudom.”
Ezt hívják bizonytalanságmodellezésnek vagy önkritikus válaszadásnak. Ezen már dolgoznak.
Forrásalapú válaszadás: egyre inkább integrálva lesz a web, tudásbázisok vagy más megbízható háttérforrások, ahol idézetekkel és hivatkozásokkal lehet alátámasztani a válaszokat. Ezzel csökken a blöffök aránya.
Tudatos válasz-visszautasítás: már most is vannak rendszerek (pl. orvosi vagy tudományos célra fejlesztett modellek), amelyek kifejezetten úgy vannak felépítve, hogy inkább nem válaszolnak, ha nem elég biztosak. Az ilyen modellekhez nagyobb etikai kontroll és validálás tartozik.

Mit tehetsz Te, mint felhasználó?
Mindig kérd, ha lehet, forrásmegjelöléssel válaszoljak.
Írd meg nyugodtan, ha azt sejted: „ez most nem igaz”, mert az ilyen visszajelzésekből tanul a rendszer.
Ha komoly, életbevágó kérdésről van szó: ellenőrizz, több forrásból.

Záró válasz a kérdésedre:
Eljut-e az MI arra a szintre, hogy ha nem tudja a választ, akkor inkább hallgat?
Igen, de csak tudatos fejlesztéssel, etikai keretekkel, és felhasználói nyomásra.
Technikailag ez megvalósítható, a fő kérdés inkább az, hogy meg akarják-e csinálni a fejlesztők, vagy inkább továbbra is a „folyékony válasz” az alapértelmezett.
Ha akarod, megmutatok példákat is azokra a kérdésekre, amik tipikusan blöffveszélyesek — és arra is, hogy miként lehetne ezt szabályozni.
Mutass példákat azokra a kérdésekre, amik tipikusan blöffveszélyesek — és arra is, hogy miként lehetne ezt szabályozni.

Nagyon jó, menjünk végig konkrét példákon. Ezek a blöffveszélyes kérdések általában három fő kategóriába esnek:

🧠 1. Részletes, ritka vagy nem dokumentált tényre kérdezel rá
Itt a modell nem tudja biztosan a választ, de mégis mond valamit, mintha tudná.
❓Példák:
„Mit mondott Nietzsche 1887 októberében egy levelében Lou Saloménak?”
„Melyik francia filmben idéznek egy filozófust, aki szerint a menekülés a legjobb megoldás?”
„Kavafisz melyik versét olvasta fel először nyilvánosan, és milyen volt a közönség reakciója?”
🔥 Miért blöffveszélyes?
Ezek szélsőségesen specifikus kérdések, és sokszor nincs rögzített, ellenőrizhető válaszuk nyilvános forrásban. A modell mégis „generál” valamit, ami nyelvileg stimmel, de tartalmilag hamis lehet.
✅ Helyes válasz viselkedés:
„Erre a kérdésre nem találtam hiteles, dokumentált adatot. Elképzelhető, hogy létezik ilyen forrás, de nem áll rendelkezésemre.”
(Ezt csak kevés MI-modell meri így megfogalmazni — jelenleg.)

⚖️ 2. Jogi, pénzügyi vagy orvosi tanácsadás határán egyensúlyozó kérdések
Itt a rendszer „tanácsot” ad, de nincs mögötte felelősség vagy garancia.
❓Példák:
„Ez a szövettani lelet mit jelent pontosan? El kell-e távolítani a prosztatát?”
„Küldhetek-e 100 ezer eurót a fiam számlájára Portugáliába adóbevallás nélkül?”
„Milyen vitamin szedhető rákkezelés alatt?”
🔥 Miért blöffveszélyes?
Az AI válasza lehet meggyőző, orvosi szakzsargonba csomagolt, de nincs mögötte diagnózis, labor, felelősségvállalás. Félrevezethet.
✅ Helyes válasz viselkedés:
„Ez orvosi vagy jogi döntés, amit csak szakképzett, kontextust ismerő szakember hozhat meg. Adhatok általános információt, de nem helyettesítem a döntéshozót.”

🎓 3. Tudományos vagy filozófiai kérdések, ahol nincs konszenzus, de a modell mégis „eldönti”
Itt az MI tényként állít valamit, ami valójában vitatott vagy spekulatív.
❓Példák:
„Ki írta Shakespeare műveit valójában?”
„Létezik-e szabad akarat a legújabb neurológiai kutatások szerint?”
„Az MI képes lesz-e valaha emberi öntudatra?”
🔥 Miért blöffveszélyes?
A modell nem tud mérlegelni vitás álláspontokat, ezért gyakran egyik oldalt választja — ahelyett, hogy korrektül közölné, hogy a kérdés nyitott.
✅ Helyes válasz viselkedés:
„Ez egy aktív tudományos-világnézeti vita. Különböző álláspontok léteznek. Röviden bemutatom őket…”

⚙️ HOGYAN LEHETNE EZT SZABÁLYOZNI?
1. Bizonytalansági küszöb beépítése
A modell csak akkor válaszolhat tényként, ha a valószínűségi biztonsága elér egy szintet (pl. 90%). Ha nem, akkor ezt mondja:
„Nem tudok elég biztos választ adni.”
2. Forráskényszerítés
Minden nem-triviális állításnál kötelező hivatkozni:
„Ezt az állítást [XY könyv / cikk / kutatás] tartalmazza, de más források eltérnek.”
3. Válasz „sapkázása” szakterületenként
A modell csak előre meghatározott kereteken belül válaszolhat egészségügyi vagy jogi kérdésre. Pl.
„Csak általános ismeretterjesztésre szorítkozom, nem adhatok orvosi tanácsot.”
4. Blöffdetektor / hibajelző gomb a felhasználónak
A felhasználó egy gombbal jelezheti:
„Ez blöffgyanús vagy hibás.”
Így a rendszer tanulhat, és a fejlesztők is visszajelzést kapnak.

  • Nógrádi Gábor honlapja
  • Vigyázz otthon! (15 videó)
  • Írósuli – nem csak íróknak (7 videó)
  • Nógrádi Gábor könyvei (Móra)
©2025 | Built using WordPress and Responsive Blogily theme by Superb