
Риск за личните данни ли е ChatGPT?
преди 5 часа
Съвременните чатботове, базирани на изкуствен интелект, вече не се ограничават само до комуникация с потребителя. Те свободно се свързват с услуги на трети страни, за да предоставят персонализирани отговори на запитвания. ChatGPT може да бъде свързан с пощенска кутия в Gmail, хранилище в GitHub и календар в екосистемата на Microsoft. Именно тази свързаност обаче може да се окаже уязвимост, която хакерите използват, за да крадат лични данни. За целта е достатъчен само един "отровен" документ. Експерти по киберсигурност наскоро демонстрираха как се използва уязвимост в услугата OpenAI Connectors, за да се откраднат данни от платформи на трети страни. Схемата за атака, наречена AgentFlayer, позволява извличането на секретни API ключове от облачно хранилище в Google Drive. Атаката започва с това, че нападателят споделя злонамерен документ с потенциалната жертва чрез Google Drive, или жертвата сама качва документа в своето хранилище. Документът съдържа скрита заявка, написана с едноточков бял шрифт, която е невидима за човешкото око, но е четлива за машината. Когато потребителят поиска от ChatGPT да направи резюме на документа, скритата заявка кара изкуствения интелект да търси API ключове в Google Drive и да ги добави в края на външен URL адрес. По този начин откраднатият API ключ на жертвата се изпраща на сървър на нападателя. Откритието е било докладвано на OpenAI, като компанията бързо е приложила мерки за защита. Важно е да се отбележи, че механизмът позволява да се открадне само ограничено количество информация в рамките на една сесия. Експертите предупреждават, че свързването на големи езикови модели с външни източници на данни може да разшири възможностите на изкуствения интелект, но крие и нови рискове.