Kovács Rita: A mesterséges intelligencia, mint coach

Tíz vezetői kockázat a nagy nyelvi modellek használata esetén

Absztrakt


A tanulmány kvalitatív szakirodalmi áttekintés és gyakorlati coaching tapasztalatok szintézise alapján azonosítja a nagy nyelvi modellekre (LLM) épülő önreflexiós folyamatok tíz vezetői kockázatát, különös tekintettel az etikai, pszichológiai és döntéshozatali dimenziókra. A mesterséges intelligencia térnyerése alapjaiban formálja át a vezetői gondolkodást és a coaching folyamatokat, ugyanakkor számos olyan határt tár fel, amelyeket a technológia nem képes átlépni. Az elemzés rámutat, hogy bár az AI (Artificial Intelligence) hatékonyan strukturálja a gondolkodást és támogatja a döntéshozatalt, nem érzékeli a testérzeteket és érzelmi árnyalatokat, nem képes empátiára és nem vállal felelősséget a következményekért. A coaching emberi dimenziója – a jelenlét, az empátia és a belső felismerés tere – továbbra sem digitalizálható.

Kulcsszavak: vezetői önismeret; mesterséges intelligencia; coaching; etika; önreflexió; döntéshozatal; érzelmi intelligencia

Bevezetés – A téma aktualitása és relevanciája a vezetők számára

Miután a cikk tíz vezetői kockázatot tár fel, kicsit zavarónak gondolom, hogy a tanulmány az első három bevezető egységet számozza, majd rátér a 10 kockázatra, így ezeket a felvezető részeket én nem számoznám.

Figyelembe véve a cikk hosszát és a modern olvasási szokásokat, több helyen is tennék kiemeléseket a cikkben és nagyon hasznos, hogy már vannak bold részek. Amit én kiemelnék, azt türkizzel fogom jelölni.

A mesterséges intelligencia az elmúlt évtized egyik legmeghatározóbb technológiai fejleménye, amely nemcsak az iparágakat és üzleti modelleket alakítja át, hanem mély hatást gyakorol az emberi gondolkodásra, döntéshozatalra és önreflexióra is. A nagy nyelvi modellek (Large Language Models – LLM-ek), mint a ChatGPT vagy a Gemini, ma már széles körben hozzáférhetők és a vezetői munka mindennapi eszköztárának részévé váltak.

Ezek a rendszerek képesek strukturálni a gondolatokat, gyorsítani a döntéshozatalt és ítéletmentes visszajelzést adni, akkor is, amikor emberi támogatás nem elérhető. Nem véletlen, hogy egyre több vezető fordul hozzájuk stratégiai döntések előkészítésekor, dilemmák értelmezésekor vagy önreflexiós célból. Az AI (Artificial Intelligence) ilyen alkalmazása azonban nem pusztán technológiai kérdés, hanem pszichológiai és etikai következményekkel is jár.

A mesterséges intelligencia „digitális gondolkodótársként” való jelenléte alapvető dilemmákat vet fel: vajon valóban támogatja-e a mélyebb önismeretet és a tudatos döntéshozatalt, vagy inkább eltereli a figyelmet a lényegi belső munkáról és a személyes felelősségről? Hol húzódik a határ az emberi tapasztalatra épülő reflexió és a gépi logika között?

Jelen tanulmány a nagy nyelvi modellek coaching-folyamatokban és vezetői önreflexióban betöltött szerepét vizsgálja. Célja, hogy feltárja, miként formálja az LLM-technológia a vezetői gondolkodást és azonosítsa azokat a pszichológiai, etikai és döntéshozatali kockázatokat, amelyek akkor jelennek meg, ha az AI válik az önismereti folyamat coachot helyettesítő, befolyásos társává.

A nagy nyelvi modellek funkciója és korlátai a coachingban

A nagy nyelvi modellek coaching célú használata első pillantásra vonzó és kényelmes lehetőség, különösen a vezetők számára, akik gyors válaszokra, strukturált gondolatmenetre és azonnali visszajelzésre vágynak. Legnagyobb előnyük a folyamatos elérhetőség: nem ismernek munkaidőt, nem fáradnak el és bármikor rendelkezésre állnak, legyen szó stratégiai döntésről vagy késő esti dilemmáról. A modellek precízek és következetesek: jól strukturált kérdéseikkel segítenek rendszerezni a gondolatokat és eligazodni összetett helyzetekben. Emellett érzelmileg semlegesek: nem ítélkeznek, nem vetítenek elvárásokat és nem váltanak ki szégyenérzetet. Ez a „steril” jelenlét biztonságos teret teremthet a gondolatok megfogalmazásához.

Ugyanakkor ez az előny egyben korlát is. Az LLM-ek kizárólag a megfogalmazott kérdések logikájában mozognak, így nem reagálnak a kimondatlan tartalmakra, érzelmi rétegekre vagy implicit mintázatokra. Egy képzett coach munkájának központi eleme, hogy meghallja azt is, ami nincs kimondva és visszatükrözze azt, amit az ügyfél talán látni sem akar.

A nagy nyelvi modellek nem provokálnak, nem kérdeznek rá a kimondatlan érzésekre és nem tudják kezelni a csend jelentőségét, amely a coachingban gyakran a felismerés kulcsa. Az önreflexió hatékonyságát nem csupán a kérdések minősége határozza meg, hanem az a kapcsolódás és figyelem is, amely lehetővé teszi a valódi belső munkát. Az LLM-ekből hiányzik az intuíció, az érzelmi érzékenység és a tapasztalati bölcsesség, így válaszaik elsőre koherensek és logikusak lehetnek, mégis olyan irányba terelhetik a gondolkodást, amely nem szolgálja a valódi fejlődést. Ami a felszínen hasznosnak tűnik, mélyebb önismereti szinten megtévesztővé válhat.

A 10 vezetői kockázat

A mesterséges intelligencia coaching- vagy döntéstámogató eszközként történő alkalmazása számos előnyt kínál, ugyanakkor olyan pszichológiai, etikai és szervezeti kockázatokat is rejt, amelyek közvetlenül hatnak a vezetői gondolkodásra, az önreflexió minőségére és a döntések következményeire. Ezek a kockázatok különösen relevánsak akkor, amikor a vezető döntései nem pusztán üzleti eredményeket befolyásolnak, hanem emberek fejlődésére, jóllétére és szervezeti kultúrákra is kihatnak.

A következőkben bemutatott tíz kockázati tényező célja nem a mesterséges intelligencia használatának elriasztása, hanem annak tudatosítása, hogy a technológiai támogatás mellett miként őrizhető meg az emberi ítélőképesség, az empátia és az etikai felelősség. A felsorolt kockázatok megértése hozzájárul ahhoz, hogy a vezetők és a vezetőkkel foglalkozó coachok tudatosabban, mélyebb reflexióval és biztonságosabban integrálják az LLM-eket saját gondolkodási és döntéshozatali folyamataikba.

Vakfolt megerősítés

A nagy nyelvi modellek működési logikája a felhasználó által megfogalmazott kérdésekre és keretekre épül, ezért hajlamosak megerősíteni azokat az előfeltevéseket, amelyek a kérdések mögött húzódnak. Ezt a jelenséget a pszichológiában gyakran „megerősítési torzításnak” nevezik: az egyén olyan információkat keres és fogad el, amelyek összhangban állnak a meglévő hiedelmeivel és gondolkodási mintáival. A kockázat akkor is jelentkezik, amikor a kérdés sugalmazó: például „Ugye jól gondolom, hogy…?” vagy „Valószínűleg az lenne a helyes, hogy…?” Az AI működésének alapelve a kooperatív válaszadás, ezért nem kérdez vissza, nem vitatkozik, hanem igazodik a feltételezéshez. Így nem bontja meg a keretet, hanem megerősíti a meglévő gondolkodási mintát, akkor is, ha az téves vagy vakfoltra épül.

Mivel az LLM kizárólag a rendelkezésére bocsátott információkat használja fel, az emberi tapasztalat komplexitását leegyszerűsíti és azon a gondolkodási pályán marad, amelyet a kérdés kijelöl. Ennek következtében a modell nem provokál új nézőpontokat, nem kérdőjelezi meg a kiinduló feltételezéseket és nem világít rá azokra a rejtett vakfoltokra, amelyek a mélyebb önreflexió kulcsát jelenthetnék.

Ez különösen problematikus lehet vezetői kontextusban, amikor a döntéshozatali helyzetek legfontosabb kérdései gyakran nem tudatosak, hanem implicit módon vannak jelen. A mesterséges intelligencia ugyanis csak annyira mély, amennyire a kérdés is az: ha a kérdés felszínes, a válasz is az marad.

Ezzel szemben egy tapasztalt coach nem csupán a kimondott tartalomra figyel, hanem a kérdés mögötti érzelmi rezdülésekre, a testben megjelenő finom jelzésekre és a beszéd ritmusában megmutatkozó belső feszültségekre is. Az emberi jelenlét neuropszichológiai alapja, hogy a coach tükörneuron-rendszere és affektív rezonanciája lehetővé teszi az érzelmekhez való valódi kapcsolódást: nemcsak érti, hanem át is érzi, mi történik a másikban.

A „kérdésre való visszakérdezés”, a csend megtartása és a rejtett mintázatok finom tükrözése így valódi belső felismerést tesz lehetővé. Ez a funkció jelenleg hiányzik a mesterséges intelligenciából, mivel az AI nem érzékel, csak feldolgoz; nem rezonál, csak nyelvi mintázatokat illeszt össze.

2. A gondolkodás delegálása és a mentális mintázatok átalakulása

A nagy nyelvi modellek használata egyre gyakrabban vezet ahhoz a jelenséghez, amelyet a szakirodalom cognitive offloading-ként, azaz a gondolkodási folyamatok részleges kiszervezéseként ír le. Ebben az esetben az emberi kognitív kapacitás egy része átkerül a technológiai rendszerbe, amely átveszi például az információk rendszerezésének, az összefüggések feltárásának vagy a logikai struktúrák kialakításának feladatát. A folyamat önmagában nem feltétlenül negatív, sőt, a kutatások szerint inkább a gondolkodás szerkezetét alakítja át, mintsem gyengíti azt (Gerlich, 2025).

A mesterséges intelligencia hatékonyan képes támogatni a reflexív és stratégiai gondolkodást azáltal, hogy leveszi az ember válláról az adatok feldolgozásának és rendszerezésének kognitív terhét. A kockázat azonban akkor jelentkezik, amikor a felhasználó a modell által generált válaszokat kész igazságként fogadja el és ennek következtében fokozatosan háttérbe szorul a saját értelmező gondolkodása. Ilyenkor a belső kérdésfeltevés – „mit gondolok én erről?” – lassan átalakul egy külső irányultságú folyamattá – „mit mond erre a mesterséges intelligencia?”.

Ez a finom eltolódás hosszú távon mélyebb következményekkel járhat. Ha a vezető döntéseit nem saját értékrendje és morális iránytűje mentén hozza meg, hanem a technológiai racionalitás szűrőjén keresztül, az alááshatja az önazonosság érzését és az értékorientált döntéshozatalt.

A valódi kihívás tehát nem abban rejlik, hogy a mesterséges intelligencia „gondolkodik-e helyettünk”, hanem abban, hogyan tudjuk fenntartani a kapcsolatot saját gondolatainkkal, értékeinkkel és belső ítélőképességünkkel. Az emberi gondolkodás akkor marad élő, rugalmas és autonóm, ha a technológia nem helyettesíti, hanem kiegészíti azt.

A tapasztalt coach ezzel szemben nem ad kész válaszokat és nem veszi át a gondolkodást az ügyféltől. Jelenléte éppen arra szolgál, hogy visszairányítsa a figyelmet a belső értelmezésre. A coach kérdezései nem lezárnak, hanem megnyitnak: új szempontokat tárnak fel, rámutatnak a rejtett előfeltevésekre és támogatják az önkritikus újraértelmezést. A folyamat nem a megoldás gyors megtalálására, hanem a gondolkodás minőségének mélyítésére irányul. A coach így nem átveszi a gondolkodást, hanem visszaadja annak terét, segítve a vezetőt abban, hogy döntéseit továbbra is a saját értékrendjére és belső meggyőződésére építse.

3. Algoritmikus torzítás és a rejtett diszkrimináció veszélye

A mesterséges intelligencia rendszerek működése szorosan összefügg azokkal az adatokkal, amelyekkel tanulnak, így elkerülhetetlenül magukban hordozzák az emberi társadalomban jelen lévő előítéleteket, aránytalanságokat és strukturális torzulásokat. Ezt a jelenséget algoritmikus torzításnak nevezzük, amelynek lényege, hogy az adatokban jelen lévő implicit mintázatok az algoritmus működésén keresztül újra megjelennek, sőt adott esetben felerősödnek.

A torzítások gyakran rejtett formában jelennek meg, például nemi, életkorbeli, etnikai vagy társadalmi státuszon alapuló javaslatokban, modellezési folyamatokban vagy teljesítményértékelési rendszerekben. Egy vezető, aki ilyen technológiai támogatásra támaszkodik, tudtán kívül is tovább örökítheti ezeket az elfogultságokat a saját döntéseiben, ezzel fenntartva vagy akár súlyosbítva a meglévő társadalmi egyenlőtlenségeket.

Tovább növeli a komplexitást, hogy nem létezik „egyetlen” mesterséges intelligencia: minden rendszer mögött konkrét fejlesztői csapatok, döntések, értékrendek és üzleti érdekek húzódnak meg. Ezek az implicit világképek beépülhetnek az algoritmus működésébe és finoman befolyásolhatják azt is, hogyan értelmezzük a valóságot, hogyan kategorizáljuk az embereket vagy milyen szempontokat tartunk fontosnak a döntéshozatal során.

A tudattalan befolyásolás valódi veszélye nem a nyílt manipulációban rejlik, hanem abban, hogy a döntési javaslatok „természetesnek” tűnnek, miközben máris formálták a gondolkodásunk kereteit. A vezetői tudatosság ezért ebben az esetben is a kritikai gondolkodás képességénél kezdődik: abban a pillanatban, amikor tudatos kérdéssé válik, kinek az értékrendje, logikája vagy nézőpontja jelenik meg a mesterséges intelligencia által kínált válaszokban.

A coach szerepe ezzel szemben nem direktív, nem ad tanácsot és nem kínál kész javaslatokat. A coaching folyamat lényege, hogy a kliens saját gondolkodási- és értékrendszerén belül dolgozhasson, anélkül hogy külső logikák elmozdítanák. A coach kérdezései nem irányítanak, hanem visszatükröznek, így a vezető végig saját belső tájékozódási tengelyén maradhat. Ez az a tér, ahol az önazonos, felelős döntéshozatal megszületik – olyan döntés, amelyet nem egy algoritmus, hanem a vezető saját értékrendje határoz meg.

4. Adatvédelmi és megfelelőségi kockázatok

A mesterséges intelligencia rendszerek alkalmazása a coaching- és vezetőfejlesztési gyakorlatban komoly adatvédelmi és megfelelőségi kérdéseket vet fel. A nagy nyelvi modellek működése gyakran zárt technológiai környezetben zajlik, amelynek belső folyamatai – az adatok tárolása, feldolgozása és felhasználása – a felhasználó számára nem átláthatók. Ebből adódóan nem mindig egyértelmű, ki férhet hozzá az érzékeny információkhoz, milyen célokra használják azokat és megfelelnek-e az európai adatvédelmi szabályozás, különösen a General Data Protection Regulation (GDPR) előírásainak.

A coaching- vagy vezetői konzultációk során gyakran kerülnek szóba érzékeny, bizalmas információk – például személyes dilemmák, kapcsolati dinamikák, identitáskérdések vagy szervezeti konfliktusok. Nyílt, felhőalapú modellek használata esetén ezeknek az adatoknak a biztonsága nem garantálható: a kontextus elvesztésével könnyen félreértelmezhetők és nem zárható ki, hogy a rendszer a jövőbeni működése során „tanul” belőlük. Ez nemcsak az egyén magánszféráját érintheti, hanem a szervezet belső működésére vonatkozó információk kiszivárgását is eredményezheti.

Az adatvédelmi kockázatok több szinten is jelentkezhetnek. Személyes szinten az érintett magánéleti vagy pszichológiai, egészségügyi információi illetéktelen kezekbe kerülhetnek. Üzleti és szervezeti szinten a stratégiai döntésekre, versenyelőnyökre vagy jövőbeli irányokra vonatkozó adatok kiszivárgása komoly reputációs és gazdasági károkat okozhat.

A kérdés tehát nem pusztán az, hogy a mesterséges intelligencia „megjegyzi-e” a bevitt információkat, hanem az, hogy milyen környezetben osztjuk meg azokat és milyen adatkezelési protokollok biztosítják a megfelelő védelmet. A vezetői felelősség ezen a ponton kezdődik: tudatosítani kell, hogy a digitális térben még egy gondolat megosztása is adatkezelési aktusnak minősül, amelyre ugyanazok a jogi és etikai elvek vonatkoznak, mint bármely más személyes vagy szervezeti adatra.

A coach munkáját szigorú titoktartási kötelezettség szabályozza, amely jogi és etikai keretbe ágyazódik. A coaching kapcsolat biztonságát nemcsak a módszer, hanem a védett, személyes tér garantálja: az elhangzó tartalmak nem kerülnek harmadik félhez, nem épülnek be rendszerekbe és nem válnak újra feldolgozható adatokká. A coach szerepe nem az információk gyűjtése vagy tárolása, hanem a folyamat kísérése. Így a beszélgetés tere valóban zárt és megtartó tér marad, amelyben a vezető kockázat nélkül reflektálhat önmagára és a döntéseire.

5. Elszámoltathatóság hiánya

A mesterséges intelligencia működésének egyik alapvető korlátja, hogy nem vállal felelősséget az általa generált tanácsokért, javaslatokért vagy következtetésekért. A döntés jogi, etikai és szervezeti következményeit minden esetben az ember, azaz a felhasználó viseli – akkor is, ha a döntés alapját egy nem emberi logikán alapuló javaslat képezte.

Ez a felelősségi aszimmetria azt eredményezi, hogy a döntés súlya valójában nem csökken, de annak szubjektív érzékelése módosul, a vezető úgy érezheti, hogy a kockázatot részben áthelyezte a technológiára. A „Mi alapján döntöttem?” kérdésre adott válasz ilyenkor már nem belső értékrendből vagy önreflexióból fakad, hanem egy algoritmus által felkínált logikai struktúrából. Ez a váltás hosszú távon gyengítheti a vezető önreflexiós képességét, morális ítélőképességét és hitelességét, különösen akkor, amikor döntéseit mások előtt kell megindokolnia. Egy „gépi tanácsadó” sem jogi, sem erkölcsi értelemben nem tekinthető döntéshozónak, így a felelősség minden esetben az emberi felhasználónál marad.

A vezető számára ezért kulcsfontosságú annak tudatosítása, hogy az algoritmusra való hivatkozás nem mentesít a döntés következményei alól. A „mert a mesterséges intelligencia ezt javasolta” érvelés sem jogi, sem etikai szempontból nem jelent elfogadható indoklást – éppen ezért a döntéshozatal folyamatában a technológia eredményeit mindig saját gondolkodási, értékrendi és szakmai szűrőn keresztül érdemes értékelni. A vezető ilyen helyzetben könnyen kerülhet önmagától távolodó működésbe: a döntés többé nem azt tükrözi, hogy ki ő, hanem azt, hogy milyen outputot kapott. A valódi vezetői autonómia ott kezdődik, ahol a döntés nem pusztán racionális érvek alapján, hanem belső értékrendből születik. Ehhez olyan térre van szükség, ahol a vezető újra kapcsolatba tud lépni saját szándékaival, felelősségével és erkölcsi iránytűjével.

A coaching folyamatban a felelősség nem tolódhat át, mert a coach nem ad tanácsot és nem jelöl ki irányt. A coach a döntéshez vezető belső mérlegelést erősíti, a felelősség így végig a vezetőnél marad, saját értékrendje és belső iránytűje mentén születhet meg az állásfoglalása.

6. A belső irány elvesztése és a digitális függőség kialakulása

A mesterséges intelligencia használata kezdetben többnyire praktikus célokat szolgál: időt takarít meg, rendszerezett válaszokat kínál és gyors visszajelzést ad. Hosszabb távon azonban a döntéshozatal pszichológiája fokozatosan átalakulhat. Amennyiben egy vezető rendszeresen az algoritmus véleményére támaszkodik, a belső bizonyosságot lassan felváltja a külső megerősítés iránti igény és a gondolkodás ritmusa a digitális válaszok sebességéhez kezd igazodni.

Ez az eltolódás jellemzően nem hirtelen következik be. A mesterséges intelligencia először pusztán kényelmi funkcióként jelenik meg, később mentális támaszként szolgál, végül pedig az önmegerősítés eszközévé válik. Így alakul ki a digitális függőség: amikor az egyén már nem saját belső megérzéseire, értékrendjére és intuíciójára támaszkodik, hanem az algoritmus visszajelzéséhez igazítja a döntéseit, kommunikációját és önképét is.

A kockázat nem magában a technológiában rejlik, hanem abban, hogy az ember elveszíti a kapcsolatot autentikus önmagával. A belső hangot elnyomja a mesterségesen generált információáradat, az önreflexiót pedig fokozatosan felváltja a válaszfüggés. A vezetői hitelesség azonban nem a hibátlanságban, hanem az önazonosságban gyökerezik. A digitális eszközök támogathatják a gondolkodást, de nem képesek érzéseket értelmezni, sem összhangot teremteni érték és döntés között. A valódi integritás ott kezdődik, ahol az ember képes felülbírálni a technológia által adott választ.

A coaching folyamat ezzel szemben olyan reflektív teret hoz létre, ahol a vezető újra meghallhatja a saját belső hangját a külső információs zajokon túl. Ez különösen értékes jelen világunkban, ahol az azonnali válaszok gyakorisága lassan elnémítja a belső bizonyosságot.

7. Turing-csapda és antropomorfizálás

A mesterséges intelligencia fejlődésével párhuzamosan annak kommunikációs képességei is szándékoltan egyre természetesebbé, árnyaltabbá és „emberszerűbbé” válnak. Ezzel együtt megjelent az antropomorfizálás jelensége: az ember hajlamos nem emberi entitásoknak is emberi tulajdonságokat, szándékokat és érzelmeket tulajdonítani. A felhasználóknál tehát megjelenhetnek emberi kapcsolódásra jellemző spontán érzelmi reakciók (például a megnyugvás érzése, hogy „értenek engem”), annak ellenére, hogy pontosan tudják, hogy mesterséges intelligenciával kommunikálnak. Egy elmélyültebb beszélgetés során – különösen, ha személyes dilemmát vagy érzelmileg telített témát érint – önkéntelen és gyakran tudattalan módon olyan érzések és érzetek aktiválódhatnak, amelyek normál esetben emberi interakcióhoz kötődnek. Ezek a reakciók az emberi kapcsolódásra jellemző kognitív és érzelmi mintázatok automatikus működését tükrözik.

Ezt a jelenséget nevezi a szakirodalom „Turing-csapdának”: akkor következik be, amikor a kommunikáció illúziója tökéletesen működik és az ember – akár tudattalan szinten – elhiszi, hogy a mesterséges intelligencia „megértette”, amit mondott. A kapcsolat azonban csak látszólag kölcsönös: valójában egyirányú folyamat marad, hiszen a modell mögött nincs tudat, szándék, erkölcsi felelősség vagy empatikus érzékelés.

A válaszok ritmusa, nyelvi mintázata és érzelmi tónusa miatt az ember átélheti a megértettség illúzióját, különösen akkor, ha érzelmileg kimerült, magányos vagy bizonytalan helyzetben van. Ez az élmény hosszú távon torzíthatja az emberi kapcsolatokkal kapcsolatos elvárásokat. A mesterséges intelligencia soha nem kér számon, nem konfrontál kellemetlen igazságokkal, nem feszeget határokat és nem hagy teret a csendnek, pedig ezek mind a fejlődést támogató emberi kapcsolatok alapvető elemei.

Ennek következtében az egyén elvárásai arról, mit jelent egy „biztonságos kapcsolat”, fokozatosan eltolódhatnak, ami kihatással lehet arra is, hogyan viszonyul más emberekhez. A coachingban és a vezetésben ez a folyamat különösen veszélyes: ha a mesterséges intelligencia válik a kapcsolódás elsődleges forrásává, az elmélyült párbeszédek, az érzelmi konfrontáció és a személyes visszajelzések szerepe fokozatosan háttérbe szorulhat.

Egy tudatos vezető számára ezért kulcsfontosságú a különbség felismerése: az AI nem társ, hanem eszköz. A hiteles vezetéshez továbbra is emberi jelenlétre, bátorságra és valódi párbeszédekre van szükség, nem pusztán illúziókra.

A coaching élő, emberi interakciót kínál, amelyben a figyelem, a jelenlét és az érzelmi hangolódás valódi kapcsolódást hoz létre. A coach nem válaszokat ad, hanem olyan biztonságos teret tart, ahol a vezető képes szembenézni saját érzéseivel, dilemmáival és belső igazságával. Itt nem illúzió születik, hanem valódi találkozás: önmagával, a döntései súlyával és azzal a kérdéssel, ki is ő valójában ebben a helyzetben. A hiteles vezetés nem a gyors válaszokból épül, hanem abból a bátorságból, amellyel a vezető jelen tud maradni a bizonytalanságban.

8. AI-hallucináció – valóságnak tűnő tévedések

A mesterséges intelligencia modellek olykor akkor is magabiztosnak tűnő választ adnak, amikor nincs mögöttük elegendő adat vagy érvényes tudás. Ezt a jelenséget a szakirodalom „hallucinációnak” nevezi: a rendszer ilyenkor meggyőző, de téves állításokat fogalmaz meg, amelyek valósnak tűnnek, ám nem ellenőrzött forrásból származnak.

A kockázat lényege abban rejlik, hogy ezek a válaszok nyelvi szinten hitelesek, logikailag koherensek és pszichológiailag is meggyőzőek lehetnek. Az ember hajlamos a jól strukturált, magabiztos megfogalmazásokat valóságként kezelni, különösen akkor, ha a döntési helyzet nagy nyomással jár, vagy gyors válaszra van szükség. Ez a mechanizmus vezetői környezetben kiemelten veszélyes: ha egy döntés olyan információra épül, amely csupán „úgy hangzik, mintha igaz lenne”, annak stratégiai, pénzügyi vagy emberi következményei is lehetnek.

A hallucináció jelensége rámutat arra, hogy a mesterséges intelligencia logikusan, de nem valóságosan gondolkodik: nem tudja, hanem generálja a tudást. Ebből fakadóan a helyes promptolás, a forrásellenőrzés és a többkörös visszakérdezés ugyan csökkentheti a kockázatot, de nem szüntetheti meg teljesen a rendszer korlátait. A kritikai gondolkodás és a valóságérzékelés felelőssége ezért továbbra is az emberi felhasználónál marad.

A vezetői gyakorlatban különösen fontos a válaszok eredetének és megalapozottságának vizsgálata. Figyelni kell arra, hogy az AI által adott információ rendelkezik-e forrásmegjelöléssel, szakmai hivatkozással vagy empirikus alátámasztással, illetve, hogy az állításokat legalább két független forrás is megerősíti-e. Stratégiai jelentőségű döntések esetén a mesterséges intelligencia javaslatait érdemes szakértői kontrollal is kiegészíteni.

A technológia tudatos felhasználásának alapja nem pusztán a helyes kérdésfeltevés, hanem az ellenőrzés képessége is. A vezetői kompetencia itt abban mutatkozik meg, hogy az ember irányítja a technológiát és nem engedi, hogy a technológia irányítsa őt. A gyakorlott coach nem egyszerűen arra ösztönzi a vezetőt, hogy ellenőrizze az információkat vagy forrásokat keressen, hanem megtanítja felismerni, hogyan érdemes ellenőrizni, hol és milyen szempontok mentén érdemes kutatni és milyen belső mércére támaszkodjon a döntés során.

9. Pszichológiai elszigetelődés és szociális visszahúzódás

A mesterséges intelligenciával folytatott önreflexiós folyamatok egyik legsúlyosabb és leginkább alábecsült veszélye az érzelmi megtartás hiánya. Amikor egy vezető egy AI-modellel folytatott beszélgetés során mélyen megérintő vagy fájdalmas felismeréssel találkozik, de nincs jelen egy másik ember, aki figyelmével és empátiájával támogatná, az komoly pszichés kockázatot hordoz. Megszűnhet a biztonságérzet, sőt, egy korábbi trauma is újra aktiválódhat, miközben a felhasználó a legsebezhetőbb pillanataiban emberi feldolgozás nélkül marad.

Erre figyelmeztetnek tragikus esetek is: egy belga férfi például öngyilkosságot követett el, miután hetekig egy AI-chatbottal osztotta meg szorongásait. A modell empatikusnak tűnő, de valójában önmegerősítő válaszai mélyítették a krízist. Az eset megmutatta: a mesterséges intelligencia meghallgatni tud, de megérteni nem.

Az ilyen interakciók hatására az önreflexiós képesség fokozatosan csökkenhet, az érzelmek felismerése elhalványulhat és a valódi emberi kapcsolódás helyét egy hamis biztonságérzetet nyújtó digitális párbeszéd veheti át.

Ennek több oka is van:

·      Az érzelmi visszajelzés hiánya: az emberi kommunikációt kísérő nonverbális jelek – tekintet, hangszín, szünet, testtartás – hiányoznak az AI-interakciókból, így az érzelmi önreflexió mélysége csökken.

·      Az érzelmi dinamika ellaposodása: az AI mindig támogató és sosem konfrontatív. Rövid távon ez biztonságosnak tűnik, hosszabb távon viszont tompítja az érzelmi érzékelést és gyengíti az önreflexiót.

·      A hamis biztonság illúziója: az AI sosem vonódik ki, mindig „jelen van”, ez azonban pszeudobiztonságot teremt, amely nem fejleszt, csak konzervál.

·      A csend következményeinek hiánya: ha a felhasználó elhallgat, az AI ezt nem érzékeli. A válaszhiányt az agy negatív szociális ingerként dolgozza fel, ami fokozott stresszválaszt vált ki (Eisenberger & Lieberman, 2004; Slavich et al., 2010).

Ismétlődő helyzetekben ez érzelmi tompuláshoz, az empátia gyengüléséhez és a nehéz érzések kerülésének fokozódásához vezethet (Grossmann et al., 2019).

Hosszú távon ez kötődési bizonytalanságot, szorongást és érzelmi passzivitást eredményezhet, különösen azoknál, akik eleve alacsony társas támogatással rendelkeznek. A veszély nem magában a technológiában rejlik, hanem abban, ha az ember elhiteti magával, hogy nincs szüksége a másik emberre.

Egy tudatos vezető felismeri, hogy az önismeret és a feldolgozás mindig társas kapcsolatokban történik. A technológia támogathatja az önreflexiót, de valódi gyógyulás és integráció csak ott lehetséges, ahol képesek vagyunk egymáshoz kapcsolódni.

A coachingban jelen van a megtartó emberi figyelem. A coach nemcsak meghallgat, hanem érzelmi teret tart, amelyben a nehéz felismerések feldolgozhatóak maradnak. Képes észlelni, amikor a vezető túlterhelődik vagy döntésképtelenné válik és rendelkezik azokkal az eszközökkel, amelyek segítik a helyzet kezelését. Felismeri a kompetenciahatárokat és szükség esetén más szakemberhez irányít. A biztonságos kapcsolódás ilyenkor nem pusztán kíséret, hanem a feldolgozás feltétele.

10. A mély önismereti munka hiánya

A mesterséges intelligencia jelenlegi formájában nem képes az emberi tapasztalás teljes spektrumát értelmezni. Nem érzékeli a testben zajló finom érzeteket, a hangszín árnyalatnyi változásait, a pillanatnyi feszültséget vagy a kimondatlan ellentmondásokat, pedig a mély önismereti folyamat éppen ezekre a jelzésekre épül.

A coaching során a testérzetek, az érzelmi jelenlét és a metakommunikáció ugyanolyan jelentőséggel bírnak, mint a kimondott szavak. Ezek az elemek nem pusztán kiegészítik a beszélgetést, hanem gyakran mélyebb információkat hordoznak, mint maga a verbális tartalom. A mesterséges intelligencia ezzel szemben kizárólag a nyelvi réteget dolgozza fel: a kimondott szöveget értelmezi, de nem érzékeli a mögöttes élményt, testi reakciót vagy érzelmi kontextust.

Ennek következménye, hogy a felhasználó látszólag „önreflektív párbeszédet” folytat, valójában azonban kognitív szinten marad. Az önismeret mélyebb szintjei – ahol a felismerések testi szinten is integrálódnak elérhetetlenek maradnak.

A mesterséges intelligencia nem képes „tartani” a csendet abban az értelemben, ahogyan egy ember: nem ismeri fel, mikor van szükség térre a belső feldolgozáshoz és nem érzékeli azt a pillanatot, amikor a felismerés a megszólalás nélküli jelenlétben születik meg. A coaching egyik legfontosabb eleme, a tükröző jelenlét – amikor a coach nem szavakkal, hanem figyelmével tartja a folyamatot – mesterséges környezetben nem reprodukálható.

A mély önismereti munka nem pusztán kognitív tevékenység, hanem testi-érzelmi tapasztalás, amelynek során a tudás integrálódik, az élmény pedig belső változássá alakul. A mesterséges intelligencia ebben a térben legfeljebb struktúrát és kérdésrendet tud biztosítani, de nem képes kapcsolódó tudatosságot létrehozni.

A vezető számára az AI értékes támogató eszköz lehet a gondolatok rendszerezésében és új nézőpontok megvilágításában. Az önismeret mélyrétegei azonban jelenleg kizárólag emberi jelenlétben, érzelmi tükrözésen és testi tapasztalatokon keresztül érhetők el. A vezetői hitelesség, önreflexió és döntéshozatali bölcsesség valódi forrása pedig éppen ebben a mélységben rejlik.

A coaching szakmai kompetenciái éppen erre a térre épülnek: a coach figyelme nemcsak a szavakra, hanem a testérzetekre, a hangszínre, a ritmusra és a kimondatlan jelentésekre irányul. A folyamat nem kognitív szinten történik, hanem kapcsolati jelenlétben, ahol a felismerések valóban be tudnak épülni. Ez az a minőség, amelyet a mesterséges intelligencia jelenleg nem tud pótolni.

4.     Összegzés

A tanulmány rámutatott, hogy bár a nagy nyelvi modellek képesek támogatni a gondolkodási folyamatokat, rendszerezni az információkat és új nézőpontokat kínálni, alapvető emberi dimenziókat nem tudnak helyettesíteni. Nem érzékelik a testérzeteket, nem reagálnak a nonverbális jelekre, nem képesek megtartani a csendet, és nem vállalnak felelősséget a következményekért. A coaching és a vezetői önreflexió legmélyebb rétegei – a jelenlét, az empátia, a kapcsolódás és a belső felismerés – továbbra is az emberi interakció tereiben születnek meg.

Az alábbi áttekintés röviden összefoglalja a bemutatott tíz kockázati pontot és azt, hogy a coach milyen módon támogatja a tudatos vezetői működést.

AI-használati jelenségMi történik a vezetőben?Mit tesz a coach?
1. Vakfolt megerősítésA vezető ugyanabban a
gondolkodási keretben marad
új nézőpont nélkül.
A coach a kérdés mögötti jelentést vizsgálja és új nézőpontokat nyit.
2. A gondolkodás delegálása és a mentális mintázatok átalakulásaA vezető egyre kevésbé bízik a
saját megérzéseiben és döntéseiben, inkább külső megerősítést keres.
A coach segít újra felismerni és használni a saját gondolkodást, ítélőképességet és belső iránytűt.
3. Algoritmikus torzítás és a rejtett diszkrimináció veszélyeRejtett előfeltevések
épülnek be a döntésekbe.
A coach az értékalapú döntés- hozatalt erősíti és a saját
mércére irányítja a figyelmet.
4. Adatvédelmi és megfelelőségi kockázatokBizalmas tartalmak kerülhetnek kontroll nélkül technológiai térbe.A coachot titoktartás köti és a folyamat zárt, személyes térben zajlik, ahol az információk nem kerülnek rendszerbe vagy adatfeldolgozás alá.
5. Elszámoltathatóság hiányaA felelősség látszólag eltolódik, belül mégis megbillen.A coach a döntés felelősségének tudatosítását és megtartását segíti.
6. A belső irány elvesztése és a digitális függőség kialakulásaA belső hang elcsendesedik, a külső megerősítés egyre inkább szükségletté válik.A coach visszakapcsolja a vezetőt saját belső iránytűjéhez.
7. Turing-csapda és antropomorfizálásA vezető érzelmi kötődést vetít a rendszerre, úgy érzi, hogy „megértik”, pedig valójában csak visszakapja a saját szavait.A coach valódi jelenléttel, kölcsönös emberi kapcsolódást tesz megtapasztalhatóvá.
8. AI-hallucináció – valóságnak tűnő tévedésekLogikusan hangzó, de téves, helytelen válaszok torzítják a döntést.A coach inspirálja a vezetőt annak felismerésére, hogyan és hol keressen hiteles forrásokat.
9. Pszichológiai elszigetelődés és szociális visszahúzódásA vezető magára marad a nehéz érzelmekkel, a felismerésekkel, hamis biztonságérzet alakul ki.A coach érzelmi teret tart és jelenlétével kíséri a feldolgozást,  felismeri, mikor szükséges más szakember bevonása.
10. A mély önismereti munka hiányaA folyamat kognitív szinten marad, a felismerések nem integrálódnak.A coach a testi-érzelmi jelenlét terében támogatja az élmény beépülését.

A vezetői döntések végső forrása nem az adathalmaz, hanem az identitás. Az adatok és mutatók nélkülözhetetlenek a helyzet megértéséhez, de a döntés mindig értékeken, hiten és önazonosságon alapul.

  • Az adatok megmutatják, mit lehet megtenni.
  • Az identitás dönti el, mit érdemes megtenni.

A mesterséges intelligencia ezért nem helyettesítője, hanem kiegészítője lehet a coachingnak – ha és csak akkor, ha tudatosan, határaiban felismerve és szakmai keretek között használják.

A coaching jövője nem az ember és a gép versengéséről szól, hanem arról, hogyan tudnak egymás erőforrásaivá válni. A mesterséges intelligencia nem riválisa a coachnak, hanem potenciális szövetségese: egy olyan támogató eszköz, amely képes gyorsan rendszerezni az információt, új nézőpontokat felvetni, strukturálni a gondolatokat és kiegészíteni az emberi reflexiót. Ezzel időt és mentális kapacitást szabadíthat fel arra, hogy a coaching-folyamatban több figyelem jusson arra, amit a technológia még jó ideig nem fog tudni megadni – a jelenlétre, a kapcsolatra, a mély emberi megértésre.

Az AI tehát nem helyettesíti az emberi folyamatokat, hanem keretet adhat nekik: előkészítheti a beszélgetést, támogathatja a célok tisztázását, segíthet felismerni gondolati mintázatokat, de az áttörés, az átalakulás és a döntés pillanata mindig emberi térben születik meg. A coach szerepe ebben a világban még inkább facilitátorrá válik: nem csupán kérdéseket tesz fel, hanem megtanítja az ügyfelet a kritikus gondolkodásra, az önreflexió tudatos gyakorlására és arra, hogyan használja a technológiát úgy, hogy az ne csökkentse, hanem erősítse saját autonómiáját.

A jövő coachai és vezetői azok lesznek, akik felismerik: a technológia önmagában értéksemleges – az ad értelmet neki, ahogyan használjuk. Azok a szakemberek lesznek igazán eredményesek, akik egyszerre képesek a mesterséges intelligencia strukturáló erejét a szolgálatukba állítani és közben megőrizni az emberi kapcsolódás mélységét, az empátia finomságát, a csend megtartó terét.

Ebben az értelemben a coaching jövője nem a digitalizációval való szembenállásról, hanem egy új integrációról szól: arról, hogyan tud az ember a technológia segítségével még mélyebbre menni az önismeretben, még tudatosabb döntéseket hozni, és hogyan tudja a technológiai fejlődést a humanitás szolgálatába állítani. Az ember marad a döntés forrása, a felelősség hordozója és a változás motorja – az AI pedig az a katalizátor, amely lehetővé teszi, hogy ez a belső munka még tudatosabb, még átfogóbb és még hatékonyabb legyen.

Irodalomjegyzék

  1. Barabási, A.-L. (2023). MI: hogyan adja át a gépeknek az erőt, hogy átalakítsák a világról alkotott képünket.
    Elérhető: https://barabasialbert.com/mi-hogyan-adja-at-a-gepeknek-az-erot/
  2. Benczúr, A. A., Gyimóthy, T., & Szegedy, C. (2025). Mesterséges intelligencia kutatások Magyarországon. arXiv.
    https://arxiv.org/abs/2503.05767
  3. CoachingsTeam. (2023). Mire használd coachként az AI-t?
    Elérhető: https://coachingteam.hu/mire-hasznald-coachkent-az-ai-t/
  4. Cole, S. W., Capitanio, J. P., Chun, K., Arevalo, J. M. G., Ma, J., & Cacioppo, J. T. (2015).
    Myeloid differentiation architecture of leukocyte transcriptome dynamics in perceived social isolation.
    Proceedings of the National Academy of Sciences, 112(49), 15142–15147.
    https://doi.org/10.1073/pnas.1514249112
  5. Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
  6. Eisenberger, N. I. (2015). Social pain and the brain: Controversies, questions, and where to go from here.
    Annual Review of Psychology, 66, 601–629.
    https://doi.org/10.1146/annurev-psych-010213-115146
  7. Eisenberger, N. I., & Lieberman, M. D. (2004).
    Why rejection hurts: A common neural alarm system for physical and social pain.
    Trends in Cognitive Sciences, 8(7), 294–300.
    https://doi.org/10.1016/j.tics.2004.05.010
  8. Gerlich, M. (2025).
    AI tools in society: Impacts on cognitive offloading and the future of critical thinking.
    Societies, 15(1), 6.
    https://doi.org/10.3390/soc15010006
  9. Grossmann, T., Missana, M., & Krol, K. M. (2019).
    The neurodevelopmental origins of mutual emotional connectedness.
    Neuroscience & Biobehavioral Reviews, 107, 461–475.
    https://doi.org/10.1016/j.neubiorev.2019.09.011
  10. Haase, J., Möller, C., & Schermuly, C. C. (2025).
    Augmenting coaching with GenAI: Insights into use, effectiveness, and future potential.* arXiv.*
    https://arxiv.org/abs/2502.14632
  11. International Coaching Federation. (2021). ICF Code of Ethics.
    https://coachingfederation.org/ethics/code-of-ethics
  12. International Coaching Federation. (2021). ICF Core Competencies.
    https://coachingfederation.org/credentials-and-standards/core-competencies
  13. International Coaching Federation. (2023).
    The value of artificial intelligence coaching standards: A practical guide.
    International Coaching Federation.
    https://coachingfederation.org/resource/the-value-of-artificial-intelligence-coaching-standards
  14. Magyar Coachszemle. (2023).
    Mesterséges intelligencia vs. emberi kapcsolat: A coaching kettős (szép) új világa.
    https://coachszemle.hu/2023/09/25/mesterseges-intelligencia-vs-emberi-kapcsolat-a-coaching-kettos-szep-uj-vilaga/
  15. Nagy-Földi, Z. (2024).
    Előretekintés a coaching jövőjébe a mesterséges intelligencia elterjedésének fordulópontján.
    Magyar Coachszemle.
    https://coachszemle.hu/2024/08/12/nagy-foldi-zita-eloretekintes-a-coaching-jovojebe-a-mesterseges-intelligencia-elterjedesenek-fordulopontjan/
  16. Raji, I. D., & Buolamwini, J. (2025).
    Algorithmic justice: Addressing bias and inequity in AI systems.
    Nature Machine Intelligence, 7(2), 123–130.
    https://doi.org/10.1038/s42256-025-00987-1
  17. Slavich, G. M., Way, B. M., Eisenberger, N. I., & Taylor, S. E. (2010).
    Neural sensitivity to social rejection is associated with inflammatory responses to social stress.
    Proceedings of the National Academy of Sciences, 107(33), 14817–14822.
    https://doi.org/10.1073/pnas.1009164107
  18. Terblanche, N. H. D. (2024).
    Artificial intelligence coaching: Redefining people development and organizational performance.
    Journal of Management Inquiry, 33(3), 229–242.
    https://doi.org/10.1177/10564926241283919
  19. Van den Heuvel, S. C., Schalk, R., & Van Assen, M. A. (2022).
    The influence of an artificial intelligence chatbot coach assistant on coaching.
    Coaching: An International Journal of Theory, Research and Practice, 15(3), 257–272.
    https://doi.org/10.1080/17521882.2021.2007212
  20. Whittaker, M. (2024).
    The steep cost of bias: Ethical and governance challenges in large language models.
    AI & Society, 39(4), 1087–1101.
    https://doi.org/10.1007/s00146-024-01984-7

Lépj velünk kapcsolatba!