Umělá inteligence slibuje revoluci, ale přitahuje i podvodníky. Přinášíme 6 případů, které odhalují temnou stránku AI.
Magazín
Případy podvodů a zneužití AI varují před riziky, která tato technologie přináší. Je důležité zachovat si kritické myšlení a být obezřetný. Obzvláště s novými AI aplikacemi.
Neexistující AI: Case Engineer.ai
V prvních letech rozmachu AI se objevily start-upy slibující automatizaci vývoje mobilních aplikací, a dokonce i tvorbu uměleckých děl. Realita však byla často zcela jiná.
Například start-up Engineer.ai vedený Sachinem Dev Duggalem se chlubil revoluční platformou, která dokáže automaticky prostřednictvím AI tvořit mobilní aplikace. To přilákalo desítky investorů, zklamání ovšem bylo, když se po několika měsících ukázalo, že většinu práce udělali manuálně indičtí vývojáři a AI v procesu hrála minimální roli.
Falešní AI proroci: Case FraudGPT
Někteří podnikatelé se vydávali za průkopníky v oblasti umělé inteligence, aniž by za nimi stála skutečná technologie. S pomocí propracovaných marketingových kampaní dokázali získat miliony dolarů od důvěřivých investorů. V roce 2020 se objevil projekt FraudGPT, který měl údajně překonat tehdy populární GPT-3 od OpenAI. Ve skutečnosti šlo jen o marketingový trik, který oklamal jak investory, tak uživatele.
AI médium: Case Spirit AI
Umělá inteligence byla zneužita i k manipulaci s lidmi. Chatboti, kteří údajně komunikovali s mrtvými, ve skutečnosti pouze sbírali citlivé informace a lákali peníze od zranitelných osob. Jedním z takových příkladů je společnost Spirit AI, která tvrdila, že jejich umělá inteligence dokáže přenášet zprávy od zesnulých.
Komunikace probíhala formou textových interakcí a firma prohlašovala, že jejich AI má přístup k „vyšším dimenzím“. Ve skutečnosti však byla všechna „zjevení“ generována obyčejnými jazykovými modely.
Špehování zaměstnanců: Case Netradyne
AI technologie byly také využity k neoprávněnému sledování zaměstnanců a porušování jejich soukromí. Start-up Netradyne se specializuje na sledovací a bezpečnostní systémy pro řidiče. V rámci svého zaměření vyvinuli AI systém, který měl řidiče kamionů monitorovat a analyzovat jejich chování na silnici. Překvapení bylo, když vyšlo najevo, že stejnou technologii používají také ke sledování vlastních zaměstnanců v kanceláři, včetně jejich pohybu a osobních rozhovorů.
Rizika v oblasti zdravotnictví: Case Babylon Health Scandal
AI má obrovský potenciál, a to i v oblasti zdravotnictví, ale její nesprávné použití může mít až fatální následky. Případy, kdy AI systémy poskytovaly nesprávné diagnózy a léčebné postupy, ukazují, že je při zavádění těchto technologií do klinické praxe nutná velká opatrnost.
S takovým řešením přišla na trh britská zdravotnická společnost Babylon Health. Pacienti díky jejich AI systému mohli analyzovat své symptomy a nechat si doporučit správnou léčbu. Řadě pacientů byl ale doporučen špatný lék či určena nesprávná diagnóza. Dokonce bylo způsobeno zhoršení stavu pacienta s vážnými srdečními potížemi.
Ani investice nejsou v bezpečí: Case Theranos of AI
V roce 2017 se s podvodem setkalo i několik známých jmen ze Silicon Valley. Start-up s názvem Autonomy AI sliboval revoluční systém pro analýzu finančních trhů. Měl předvídat pohyby na burze se skoro stoprocentní přesností. Firma navíc od investorů získala více než 50 milionů dolarů. Pravda na sebe ale nenechala dlouho čekat. Zanedlouho vyšlo najevo, že systém nebyl funkční a veškeré analýzy byly falešné.
Připravila: Petra Sauerová