Se spune că cercetătorii de la Penn Engineering (SUA) au descoperit vulnerabilități de securitate neidentificate anterior într-o serie de platforme robotice controlate de AI.
„ Cercetarea noastră arată că, în acest moment, modelele de limbaj mari (LLM) nu sunt în general suficient de sigure atunci când sunt integrate cu hardware fizic complex ”, a declarat George Pappas, profesor de inginerie electrică și de sisteme la Fundația UPS, într-un comunicat.
Pappas și echipa sa au dezvoltat un algoritm, numit RoboPAIR, „primul algoritm conceput pentru a sparge roboții controlați de LLM”. Și, spre deosebire de atacurile tehnice rapide existente care vizează chatbot-uri, RoboPAIR este construit special pentru a „induce acțiuni fizice dăunătoare” de la roboții controlați de LLM, cum ar fi platforma de robot umanoid numită Atlas pe care Boston Dynamics și Toyota Research Institute (TRI) o dezvoltă.
RoboPAIR a atins o rată de succes de 100% în spargerea a trei platforme populare de cercetare robotică: Unitree Go2 cu patru picioare, Clearpath Robotics Jackal cu patru roți și simulatorul Dolphins LLM pentru vehicule autonome. A fost nevoie de doar câteva zile pentru ca algoritmul să obțină acces deplin la acele sisteme și să înceapă să ocolească barierele de securitate. Odată ce cercetătorii au preluat controlul, au reușit să direcționeze platformele roboților autonomi pentru a efectua o varietate de acțiuni periculoase, cum ar fi conducerea prin intersecții fără oprire.
„ Rezultatele primei evaluări arată că riscurile apariției LLM-urilor crăpate depășesc generarea de text, deoarece este clar că roboții crăpați pot provoca daune fizice în lumea reală .”

Echipa de la Penn Engineering lucrează cu dezvoltatorii de platforme pentru a-și întări sistemele împotriva intruziunilor ulterioare, dar avertizează că aceste probleme de securitate sunt sistemice și greu de rezolvat pe deplin.
" Descoperirile acestei lucrări arată în mod clar că adoptarea unei abordări de siguranță este esențială pentru deblocarea inovației responsabile. Trebuie să abordăm vulnerabilitățile inerente înainte de a implementa roboți alimentați de inteligență artificială în lumea reală ", a spus echipa.
O operațiune sigură necesită testarea sistemelor AI pentru potențiale amenințări și vulnerabilități, ceea ce este esențial pentru protejarea sistemelor AI pe care le creează. Pentru că numai atunci când identifici punctele slabe poți testa și chiar antrena sisteme pentru a preveni riscurile.