Bard je generativní nástroj AI, který může dělat věci špatně

Velký nástroj pro jazykový model společnosti Google jménem Bard říká, že byl trénován pomocí Gmailu – ale Google to popřel.
Bard je generativní umělá inteligence neboli velký jazykový model (LLM), který může poskytovat informace na základě velkého souboru dat. Stejně jako ChatGPT a podobné nástroje není ve skutečnosti inteligentní a často se něco pokazí, což se nazývá „halucinace“.
Tweet od Kate Crawford, autorky a hlavní výzkumné pracovnice společnosti Microsoft Research, ukazuje Bardovu odpověď naznačující, že do datové sady byl zahrnut Gmail. Pokud je to pravda, jednalo by se o jasné porušení soukromí uživatele.
Ale Twitter Workspace od Googlu účet odpověděl, uvádějící, že Bard je raný experiment a bude dělat chyby – a potvrdil, že model nebyl trénován na základě informací získaných z Gmailu. Vyskakovací okno na webu Bard také varuje uživatele, že Bard nebude vždy odpovídat správně.
Tyto generativní nástroje umělé inteligence nejsou zdaleka spolehlivé a uživatelé s přístupem se často snaží získat informace, které by jinak byly skryté. Dotazy jako Crawford mohou někdy poskytnout užitečné informace, ale v tomto případě se Bard spletl.
Uživatelé jsou vyzýváni, dokonce i samotným Googlem, aby se vrátili k vyhledávání na webu, kdykoli LLM jako Bard zareaguje. I když může být zajímavé vidět, co to řekne, není zaručeno, že to bude přesné.
Zdroj: appleinsider.com