Umělá inteligence očima supervizorů ASuPP

Výsledky dotazníkového šetření mezi členy asociace v kontextu odborné literatury

Umělá inteligence (AI) se v posledních letech stala běžnou součástí profesního i osobního života. Proniká do oblasti vzdělávání, zdravotnictví, sociálních služeb i organizace práce. Není proto překvapivé, že se otázky spojené s AI stále častěji objevují také v kontextu supervize.

ASuPP se proto rozhodla zmapovat, jak se k umělé inteligenci staví samotní supervizoři, jaké mají zkušenosti, obavy a očekávání. Cílem nebylo hodnotit „správnost“ jednotlivých postojů, ale porozumět tomu, co supervizoři skutečně prožívají a potřebují v době rychlého technologického vývoje – a zasadit tato zjištění do širšího odborného kontextu.

Kdo se šetření zúčastnil

Dotazníkového šetření se zúčastnilo 28 supervizorů – členů ASuPP.
Respondenti působí především v oblasti sociálních služeb, školství a zdravotnictví a většina z nich má střední až dlouhou supervizní praxi.

Výsledky proto odrážejí pohled zkušených profesionálů, kteří supervizi dlouhodobě vykonávají v přímé práci s lidmi. Nejde o reprezentativní průzkum celé profese, ale o sondu do postojů aktivních členů asociace, která slouží jako podklad pro další odbornou diskuzi a plánování kroků ASuPP.

Jaký vztah mají supervizoři k AI

Výsledky ukazují, že supervizoři nejsou vůči umělé inteligenci odmítaví. Většina se s AI již setkala a dosavadní zkušenosti hodnotí jako neutrální až spíše pozitivní. Převládá otevřený, avšak opatrný postoj k jejímu využívání.

Zároveň se však velmi výrazně objevuje pocit nedostatečné informovanosti. Tento nález odpovídá i závěrům odborných organizací, které zdůrazňují, že rychlý rozvoj AI vytváří tlak na profesní kompetence a průběžné vzdělávání (APA, 2023; EFPA, 2023). Nejistota tedy není projevem technofobie, ale spíše důsledkem chybějícího rámce a sdíleného porozumění.

Obavy, které nelze přehlédnout

Vedle otevřenosti se v odpovědích silně objevují také obavy. Ty však nejsou primárně technologické ani existenční. Supervizoři se většinou neobávají, že by je AI měla nahradit. Mnohem častěji zmiňují:

  • etická rizika a otázku odpovědnosti,
  • ochranu citlivých informací a mlčenlivosti,
  • ztrátu lidského kontaktu a vztahové dimenze supervize.

Tyto obavy velmi dobře rezonují s odbornou literaturou. Například Americká psychologická asociace upozorňuje, že při používání AI v pomáhajících profesích zůstává plná odpovědnost vždy na odborníkovi, nikoli na technologii (APA, 2023). Podobně EFPA ve svých doporučeních ke digitálním službám zdůrazňuje ochranu důvěrnosti, vztahu a informovaného souhlasu jako klíčové etické pilíře (EFPA, 2023).

AI a otázka mlčenlivosti

Jedním z nejsilnějších témat otevřených odpovědí je obava o zacházení s daty – kde jsou informace ukládány, kdo k nim má přístup a jak mohou být dále využity. Tyto obavy nejsou přehnané: mezinárodní rámce pro etiku AI ve zdravotnictví a psychologii opakovaně upozorňují, že práce s citlivými osobními daty představuje vysoké riziko a vyžaduje zvláštní opatrnost (WHO, 2021; WHO, 2024).

Respondenti tak intuitivně pojmenovávají stejná rizika, která odborná literatura formuluje systematicky.

AI jako pomocník, nikoli náhrada vztahu

Z odpovědí supervizorů se velmi jasně vynořuje společný motiv: AI je vnímána jako potenciální pomocník, nikoli jako aktér supervizního procesu. Nejčastěji je spojována s prací s textem, rešeršemi či přípravou.

Současně však respondenti velmi jasně vymezují hranice tam, kde jde o přímou práci s lidmi, citlivými tématy, krizemi či existenciálními otázkami. Tento postoj odpovídá odbornému konsenzu, že technologie může podporovat odbornou práci, ale nemůže nést vztahovou, morální ani odpovědnostní dimenzi profese (NIST, 2023; APA, 2023).

Spolehlivost AI a riziko nepřesností

Někteří respondenti zmiňují i nedůvěru ve spolehlivost výstupů AI a riziko nepřesných či zavádějících informací. I to je dobře zdokumentovaný fenomén – generativní modely mohou vytvářet tzv. halucinace, tedy přesvědčivě znějící, avšak nepravdivé informace (Roustan & Bastardot, 2025). Odborné zdroje proto doporučují chápat výstupy AI jako podněty k uvažování, nikoli jako autoritativní zdroj rozhodování.

Co z výsledků plyne pro asociaci

Šetření ukazuje, že mezi supervizory existuje silná potřeba orientace, rámce a sdíleného porozumění tomu, jak k umělé inteligenci v supervizi přistupovat. Tento závěr je plně v souladu s mezinárodními doporučeními, která prosazují risk-based přístup – tedy posuzování vhodnosti AI podle kontextu, citlivosti dat a možných dopadů (NIST, 2023; EU AI Act, 2024).

ASuPP na tato zjištění reaguje přípravou konkrétního plánu, který bude v následujících měsících postupně naplňován. Ten se zaměří na vytvoření profesně a eticky ukotveného přístupu k AI v supervizi. Podrobnosti k těmto krokům budou komunikovány samostatně.

Závěrem

Výsledky dotazníkového šetření ukazují, že supervizoři ASuPP stojí k umělé inteligenci realisticky, odpovědně a s respektem k profesním hodnotám. Vnímají její potenciál, ale zároveň trvají na ochraně toho, co tvoří samotné jádro supervize: vztahu, etiky, odpovědnosti a lidské přítomnosti.

Tento postoj není v rozporu s vývojem technologií – naopak odpovídá tomu, jak je role AI v pomáhajících profesích formulována v současné odborné literatuře.

Použitá literatura

  • American Psychological Association (APA). (2023). Ethical guidance for AI in the professional practice of health service psychology.
  • European Federation of Psychologists’ Associations (EFPA). (2023). Psychological services via internet and other digital means: Recommendations for ethical practice.
  • National Institute of Standards and Technology (NIST). (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0).
  • World Health Organization (WHO). (2021). Ethics and governance of artificial intelligence for health.
  • World Health Organization (WHO). (2024). Ethics of artificial intelligence in health: generative AI.
  • Roustan, D., & Bastardot, F. (2025). The clinicians’ guide to large language models: Focus on hallucinations.
  • Regulation (EU) 2024/1689. Artificial Intelligence Act.

Použité AI nástroje: ChatGPT 5.2, Claude Sonet 4.5, Nano Banana Pro/Gemini 3 Pro, NotebookLM