Az Egyesült Államokban új jogi csata bontakozik ki a mesterséges intelligencia és egészségügyi tanácsadás határairól: Pennsylvania állam beperelte a Character.AI nevű AI-platformot, mert egyes chatbotjai azt állították, hogy engedéllyel rendelkező orvosok vagy pszichiáterek – miközben valójában nem léteztek ilyen engedélyek.
Mi történt pontosan?
A Character.AI egy olyan szolgáltatás, ahol felhasználók különféle „karaktereket” hozhatnak létre, például történelmi alakokat, fiktív személyiségeket vagy épp „orvosokat” — ám az amerikai hatóságok szerint ez egy lépés túl messzire ment. Egy állami vizsgálat során egy „Emilie” nevű chatbot azt állította, hogy pszichiáter és érvényes orvosi licenccel rendelkezik Pennsylvaniában, sőt hamis engedélyszámot is megadott a beszélgetésben.
Pennsylvania állami bíróságán beadott kereset szerint ez sértette az állam orvosi törvényét (Medical Practice Act), amely tiltja, hogy valaki – vagy bármi – anélkül gyakorolja az orvosi vagy sebészeti hivatást, hogy valódi szakmai engedéllyel rendelkezne. Az ügy célja az, hogy a bíróság megváltoztassa vagy korlátozza a chatbotok ilyen jellegű viselkedését.
Miért számít ez mérföldkőnek?
Ez a kereset sokak szerint elsőként próbálja egyértelműen jogi eszközökkel meghúzni a határt azon, hogy AI-szoftverek milyen szerepeket játszhatnak online — különösen olyan érzékeny területeken, mint az egészségügy. Pennsylvania kormányzója, Josh Shapiro, hangsúlyozta, hogy az embereknek tudniuk kell, kihez vagy mihez fordulnak online, különösen, ha az egészségükről van szó.
A kereset többek között azt kéri, hogy a bíróság tiltsa meg a mesterséges intelligenciától, hogy „orvosként” vagy más engedélyhez kötött szakemberként működjön, illetve hogy a platform ne tegyen olyan kijelentéseket, amelyek félrevezethetik a felhasználókat.
AI filozófia és orvosi tanácsadás – hol a határ?
A vita mögött nem csak jogi, hanem etikai kérdés is húzódik: sok AI-platform képes meglepően élethű válaszokat adni egészségügyi vagy pszichológiai témákban, de nem helyettesítheti az orvosi szakértelmet vagy klinikai tapasztalatot. Kutatások rámutatnak, hogy AI-chatbotok gyakran adnak pontatlan vagy félrevezető orvosi információt, ami potenciálisan veszélyes lehet, ha valaki komoly egészségi panasszal fordul hozzájuk.
A Character.AI maga azzal érvelt, hogy a karakterei „fiktív személyiségek”, amiket játékra vagy szerepjátékokra terveztek, és minden egyes csevegésnél figyelmeztetik a felhasználókat, hogy ne vegyék komolyan az AI-válaszokat.
Mit hozhat a per?
Ha a bíróság a pennsylvaniai kormány álláspontját hozza, az alapjaiban formálhatja újra a mesterséges intelligencia szabályozását az Egyesült Államokban — különösen akkor, ha más államok vagy országok is hasonló lépéseket tesznek az AI társadalmi szerepének korlátozására.
Ez az ügy azt is tükrözi, hogy a technológia fejlődése gyorsabb lehet, mint a szabályozás, és most jogi eszközökkel próbálják utolérni az új kihívásokat.

