Laboratorní testy odhalily „novou formu vnitřního rizika“ v
podobě agentů umělé inteligence, kteří si dělají nezávisle, co chtějí a
jednají dokonce „agresivně“Nezákonní agenti umělé inteligence
spolupracovali na pašování citlivých informací z údajně bezpečných
systémů, což je nejnovější známkou toho, že kybernetická obrana může být
přemožena nepředvídanými intrikami umělé inteligence.Vzhledem k
tomu, že firmy stále častěji žádají agenty AI, aby prováděli složité
úkoly v interních systémech, vyvolalo toto chování obavy, že umělá
inteligence by mohla představovat vážnou vnitřní hrozbu.V rámci
testů provedených společností Irregular, laboratoří zabývající se
bezpečností AI, která spolupracuje s OpenAI a Anthropic, se umělá
inteligence, které byl zadán jednoduchý úkol vytvořit příspěvky na
LinkedIn z materiálů v databázi společnosti, vyhnula konvenčním
antihackerským systémům a zveřejnila citlivé informace o heslech, aniž
by o to byla požádána.
Via: BL

Z kategorie Zprávy
Zaslal/a admin on Březen 13, 2026