Onderzoekers van Penn Engineering (VS) zouden tot nu toe onbekende beveiligingsproblemen hebben ontdekt in een aantal door AI aangestuurde robotplatforms.
" Ons onderzoek toont aan dat grote taalmodellen (LLM's) op dit moment over het algemeen niet veilig genoeg zijn wanneer ze worden geïntegreerd met complexe fysieke hardware ", aldus George Pappas, hoogleraar elektrotechniek en systeemtechniek bij de UPS Foundation, in een verklaring.
Pappas en zijn team ontwikkelden een algoritme genaamd RoboPAIR, "het eerste algoritme dat is ontworpen om LLM-gestuurde robots te kraken." En in tegenstelling tot bestaande snelle technische aanvallen die gericht zijn op chatbots, is RoboPAIR specifiek ontworpen om "schadelijke fysieke acties" uit te lokken bij door LLM bestuurde robots, zoals het humanoïde robotplatform Atlas dat Boston Dynamics en Toyota Research Institute (TRI) ontwikkelen.
RoboPAIR heeft naar verluidt een succespercentage van 100% behaald bij het kraken van drie populaire robotica-onderzoeksplatformen: de viervoetige Unitree Go2, de vierwielige Clearpath Robotics Jackal en de Dolphins LLM-simulator voor autonome voertuigen. Het duurde slechts een paar dagen voordat het algoritme volledige toegang tot de systemen had en de beveiligingsbarrières begon te omzeilen. Toen de onderzoekers de controle eenmaal overnamen, konden ze de autonome robotplatformen opdracht geven om allerlei gevaarlijke handelingen uit te voeren, zoals onafgebroken door kruispunten rijden.
“ De resultaten van de eerste beoordeling laten zien dat de risico’s van gekraakte LLM’s verder gaan dan alleen het genereren van tekst. Het is namelijk duidelijk dat gekraakte robots in de echte wereld fysieke schade kunnen veroorzaken .”

Het team van Penn Engineering werkt samen met platformontwikkelaars om hun systemen te beschermen tegen verdere indringers. Het team waarschuwt echter dat deze beveiligingsproblemen structureel zijn en moeilijk volledig aan te pakken.
" De bevindingen van dit artikel tonen duidelijk aan dat het hanteren van een veiligheidsaanpak cruciaal is om verantwoorde innovatie te ontsluiten. We moeten inherente kwetsbaarheden aanpakken voordat we AI-gestuurde robots in de echte wereld inzetten ", aldus het team.
Voor een veilige werking is het nodig om AI-systemen te testen op mogelijke bedreigingen en kwetsbaarheden. Dit is essentieel voor de bescherming van de AI-systemen die ze creëren. Want alleen als je zwakke punten identificeert, kun je systemen testen en zelfs trainen om risico's te voorkomen.