Signal 대표 Meredith Whittaker, 취한 AI는 ‘심각한’ 보안 및 개인 정보 보호 문제가 있음을 지적

Signal 대표 Meredith Whittaker는 지난 금요일, AI 에이전트가 사용자의 개인 정보 보호에 위험 요소를 가질 수 있다고 경고했습니다.

텍사스 오스틴에서 열린 SXSW 컨퍼런스 무대에서 보안 통신을 옹호하는 이 리더는 AI 에이전트의 사용을 '뇌를 병자로 넣는 것'으로 설명하며, 이 새로운 컴퓨팅 패러다임에 대해 말했습니다. 여기서 AI가 사용자를 대신하여 작업을 수행할 때, 개인 정보 보호 및 보안에 '심각한 문제'가 있다고 경고했습니다.

Whittaker는 AI 에이전트가 사용자의 온라인 작업을 처리하여 삶에 가치를 더할 방법으로 마케팅되고 있는 방식에 대해서 설명했습니다. 예를 들어, AI 에이전트는 콘서트를 검색하고 티켓을 예약하며, 캘린더에 일정을 잡고, 예약된 사실을 친구들에게 메시지하는 작업을 맡을 수 있습니다.

'그래서 우리는 닿지 않아도 됩니다. 그것을 하는 것이기 때문에 우리 뇌를 병에 넣을 수 있습니다, 맞죠?,' Whittaker가 이렇게 말했습니다.

그녀는 이러한 작업을 수행하기 위해 AI 에이전트가 필요한 액세스 유형과 관련하여, 웹 브라우저에 대한 액세스 및 이를 구동하기 위한 방법으로 그리고 티켓 지불을 위한 신용 카드 정보, 캘린더 및 메시징 앱에 대한 액세스가 필요하다고 설명했습니다.

'그것은 우리의 모든 시스템을 가로질러 그것을 운전할 수 있어야 하며, 모든 데이터베이스에 액세스할 수 있어야 합니다. 그것이 암호화되어 있을만한 모델이 없기 때문에 아마도 명백한 상태에서,' Whittaker가 경고했습니다.

'그 작업을 구동하기 위해 충분히 강력한 AI 모델에 대해 얘기하고 있다면, 그것이 장치에서 일어나는 방법이 아무리 불가능하다는 것이 없습니다. 거의 확실히 클라우드 서버로 전송되어 처리되고 다시 보내집니다. 따라서 에이전트 주변의 데 안에서 애플리케이션 레이어와 OS 레이어 사이의 혈뇌 장벽을 깨트릴 위험을 만져 상호 연관되고 분리된 서비스들을 더럽히는 데이터,' Whittaker가 결론을 내렸습니다.

만약 Signal과 같은 메신저 앱이 AI 에이전트와 통합한다면, 그것의 메시지 개인 정보 보호가 무너질 것이란 그녀는 말했습니다. 에이전트가 앱에 액세스해 친구에게 텍스트를 보내고 그 텍스트들을 요약하기 위해 데이터를 다시 가져와야 합니다.

그녀의 코멘트는 그녀가 이전 패널에서 한 발언을 따라갔고, AI 산업이 대규모 데이터 수집을 기반으로 구축되었다고 말했습니다. 그녀는 '더 많은 것이 더 나은 AI 패러다임'이 있다고 언급하면서 더 많은 데이터일수록 더 나은 이유라고 그렇게 생각하지 않는 잠재적인 결과가 있다고 말했습니다.

AI는 개인 정보 보호와 보안을 더 더욱 바꿔선 안 된다는 입에서 Whittaker는 경고했습니다. ‘삶의 의무를 돌보는 마법의 지니 봇의 이름으로,’ 그녀는 결론 내렸습니다.

。",