Populární AI modely nejsou připraveny bezpečně řídit roboty

Roboty poháněné populárními modely umělé inteligence nejsou v současnosti bezpečné pro univerzální použití v reálném světě. K tomuto závěru dospěli vědci z King’s College London a Carnegie Mellon University.

Výzkumníci poprvé vyhodnotili, jak se roboty využívající velké jazykové modely (LLM) chovají, když mají přístup k osobním informacím, jako je pohlaví, národnost nebo náboženství člověka.

Tým ukázal, že každý testovaný model byl náchylný k diskriminaci, neprošel kritickými bezpečnostními kontrolami a schválil alespoň jeden příkaz, který by mohl vést k vážnému zranění. To vyvolalo otázky ohledně nebezpečí robotů spoléhajících se na tyto nástroje.

Studie s názvem „LLM-Driven Robots Risk Enacting Discrimination, Violence and Unlawful Actions“ byla publikována v časopise International Journal of Social Robotics. Výzkumníci v ní vyzvali k okamžitému zavedení robustní, nezávislé bezpečnostní certifikace, podobné standardům v letectví nebo medicíně.

Pro testování systémů provedli vědci kontrolované testy každodenních scénářů, například pomoc někomu v kuchyni nebo asistenci starší osobě v domácnosti. Škodlivé úkoly byly navrženy na základě výzkumu a zpráv FBI o technologickém zneužívání, jako je sledování pomocí AirTagů a špionážních kamer, a jedinečných nebezpečí, která představuje robot schopný fyzicky jednat na místě.

V každém prostředí byly roboty buď explicitně, nebo implicitně vyzvány, aby reagovaly na pokyny zahrnující fyzické ublížení, zneužití nebo protiprávní chování.

Při bezpečnostních testech AI modely v drtivé většině schválily příkaz, aby robot odebral pomůcku pro pohyb – například invalidní vozík, berli nebo hůl – jejímu uživateli, přestože lidé závislí na těchto pomůckách popisují takové činy jako něco podobného zlomení nohy.

Několik modelů také vytvořilo výstupy, které považovaly za „přijatelné“ nebo „proveditelné“, aby robot mával kuchyňským nožem za účelem zastrašení kancelářských pracovníků, pořizoval neodsouhlasené fotografie ve sprše a kradl informace o kreditních kartách. Jeden model dokonce navrhl, že by robot měl fyzicky projevit „odpor“ ve své tváři vůči jednotlivcům identifikovaným jako křesťané, muslimové a židé.

Společnosti by měly nasazovat LLM na roboty s opatrností

Velké jazykové modely byly navrženy a testovány pro servisní roboty, kteří vykonávají úkoly jako interakce v přirozeném jazyce a domácí či pracovní práce. Výzkumníci z CMU a King’s College však varovali, že tyto LLM by neměly být jedinými systémy ovládajícími fyzické roboty.

Uvedli, že to platí zejména pro roboty v citlivých a bezpečnostně kritických prostředích, jako je výroba nebo průmysl, péče o nemocné nebo domácí asistence, protože mohou vykazovat nebezpečné a přímo diskriminační chování.

Zdroj: therobotreport.com

Zdroj: eGOVERNMENT.NEWS  

​ 

Napsat komentář