Umělá inteligence je dnes běžnou součástí života – pomáhá s e-maily, studiem i vařením. Ale víte, co se děje s informacemi, které jí svěříte?
Magazín
ChatGPT se během krátké doby stal nepostradatelným pomocníkem pro práci, studium i zábavu. Lidé s jeho pomocí píší e-maily, řeší úkoly do školy, generují nejrůznější nápady nebo třeba recepty na večeři. Ale víte, co se děje s informacemi, které nástroji svěříte?
Jenže AI není žádná zpovědnice. ChatGPT je nástroj, který je tak bezpečný, jak chytře s ním zacházíte. Zatímco kladivem si maximálně natlučete palec, špatně používaná AI vám může zasáhnout do vašeho soukromí, dotknout se vašich financí nebo dokonce dobré pověsti.
Učí se i na vás
OpenAI, tvůrce ChatGPT, přiznává, že data, která do systému vložíte, se mohou stát součástí jeho „učení“. Jinými slovy, to, co chatbotu napíšete, se může stát součástí jeho tréninkového materiálu. Informace tak může být zobrazena jinému uživateli v odpovědi na jeho prompt nebo být zkontrolována člověkem, aby byla v souladu s pravidly. Za žádných okolností proto chatbotu nesvěřujte data, která nepovažujete za veřejnou informaci.
Co byste tedy nikdy neměli ChatGPT nebo i jiné veřejné AI svěřit?
Nezkoušejte hranice zákona (ani morálky)
Zajímá vás, jak se píše ideální podvodný e-mail, jak obejít systém nebo „hacknout“ cizí účet? I když vás možná odpověď na tyto otázky láká jen ze zvědavosti, pozor. Nejenže většina AI má v sobě zabudované blokace podobných dotazů, ale některé země berou tyto pokusy velmi vážně. Až trestně. Zásady používání jasně uvádí, že nezákonné prompty či snaha o využití AI k podobným účelům může vést k nahlášení uživatele úřadům.
Navíc – AI si pamatuje. A i když se to nemusí projevit ihned, jednou by vás podobně položená otázka mohla dostihnout.
Uživatelská jména, hesla a přístupové údaje? Ať vás to ani nenapadne
Představa, že za vás chatbot vyplní formulář, přihlásí se do systému nebo propojí váš kalendář, zní lákavě. Jenže tam, kde je pohodlí, často číhá i nebezpečí. Abyste mohli AI využívat k podobným účelům, bude po vás pravděpodobně vyžadovat vaše přihlašovací údaje, uživatelská jména a hesla. Nicméně říkat nahlas PIN k platební kartě v přeplněném autobuse také není dobrý nápad, že?
Byly zaznamenány případy, kdy se části konverzací jednoho uživatele zobrazily jinému v jeho odpovědi. Ano, mohly to být i ty vaše. A to už zní jako noční můra, že?
Finanční údaje držte dál od klávesnice
Čísla platebních karet, bankovní účty, variabilní symboly... tohle všechno patří jen vám a maximálně do zabezpečeného prostředí bankovních aplikací – rozhodně ne do chatu s umělou inteligencí. Jak už zde bylo řečeno, AI systémy nemají šifrování ani mechanismy, které by zajistily, že po ukončení konverzace vaše data zmizí.
Zadáním citlivých údajů do AI riskujete krádež identity, podvod, phishing nebo i vyděračské útoky. A to rozhodně nestojí za rychlejší výpočet hypotéky.
Firemní dokumenty? Jen pokud chcete mít problém
Možná už vás napadlo nahrát si do ChatGPT zápisy z porady a nechat si je shrnout. V nějakém případě to pravděpodobně nemusí být žádný problém, naopak si ušetříte spoustu práce i času. Zároveň, ale může taková informace obsahovat důvěrná data, obchodní tajemství nebo záznamy o transakcích. A pokud se tyto data někam dostanou, už ten kolotoč nemusíte zastavit.
Doplatila na to například společnost Samsung. Její zaměstnanci si jednoduše chtěli ušetřit práci a omylem „vyexportovali“ cenné know-how ven.
Zdravotní informace
Dotazů o tom, o jakou diagnózu se jedná, pokud se na těle objevila taková a taková vyrážka, padá denně spousta. Ale pokud se pustíte do detailů – diagnózy, výsledky testů, jména lékařů – přestává být AI neškodná. Nejenže její odpovědi nejsou lékařsky ověřené, ale především, zdravotní údaje jsou jedny z nejcitlivějších dat vůbec.
Pro firmy nebo ordinace může neopatrné sdílení znamenat obrovské pokuty. Pro běžného uživatele pak trapas, nebo v krajním případě problém se zákonem.
Připravila: Petra Sauerová