AI 발언·행동에 따른 손해 보장 구조 마련
인공지능 음성 기술 기업 일레븐랩스가 기업용 AI 에이전트의 업무상 실수에 보험을 적용하는 제도를 도입했다. AI가 고객 응대나 영업 과정에서 잘못된 정보를 제공하거나 부적절한 대응으로 손해를 발생시킬 경우, 일정한 인증 절차를 거친 에이전트에 대해 보상 체계를 마련한 것이다. 기업 현장에서 AI 활용이 확대되는 가운데, 도입 이후 발생할 수 있는 책임 문제를 제도적으로 다루려는 시도라는 점에서 주목된다.
일레븐랩스는 3월 18일 AI 리스크 평가 전문 기업 AIUC와 협력해 AI 음성 에이전트 전용 종합 보험 제도를 운영한다고 밝혔다. 적용 대상은 일레븐랩스의 기업용 AI 에이전트 ‘일레븐에이전트’이며, 한국에서 이 서비스를 도입한 기업도 포함된다. 다만 모든 이용 기업에 자동 적용되는 것은 아니며, 개별 감사와 운영 환경별 위험 평가를 거쳐 AIUC-1 인증을 받아야 보험이 활성화된다.
기술적으로는 보안성과 신뢰성 검증 절차가 핵심이다. 회사 측 설명에 따르면 해당 에이전트는 환각, 프롬프트 인젝션, 데이터 유출, 편향성 등 실제 운영에서 발생할 수 있는 실패 상황을 가정한 5,000건 이상의 적대적 시뮬레이션 테스트를 통과했다. 인증 유효기간은 12개월이며, 이를 유지하려면 최소 3개월마다 기술 테스트를 다시 수행해야 한다. 보험료는 인증 비용과 별도로, 에이전트 유형에 따라 달라진다.
이 제도가 겨냥하는 분야는 고객지원과 영업 등 기업의 대외 커뮤니케이션 업무다. 실제 현장에서는 AI 상담원이 할인 조건을 잘못 안내하거나 부적절한 발언을 할 경우 분쟁이나 손실로 이어질 가능성이 제기돼 왔다. 이런 이유로 많은 기업이 생성형 AI와 에이전트 도입을 검토하면서도 시범운영 단계에 머무는 경우가 적지 않았다.
이번 발표의 의미는 AI를 단순한 자동화 소프트웨어가 아니라, 일정한 책임과 검증을 전제로 운영하는 업무 주체로 다루기 시작했다는 데 있다. 사람의 업무상 실수처럼 AI의 행위에도 위험 관리와 보상 체계를 연결함으로써, 기업 입장에서는 도입 판단의 기준이 보다 구체화될 수 있다. 동시에 AI 확산 과정에서 “문제가 발생했을 때 누가 어떤 방식으로 책임을 질 것인가”라는 질문에 제도적 해법을 제시하려는 움직임으로도 읽힌다.
일레븐랩스는 이번 보험과 인증 체계가 기업의 대규모 AI 도입 과정에서 법무·컴플라이언스 부담을 낮추는 역할을 할 것으로 보고 있다. 앞으로 이 같은 구조가 다른 AI 서비스 영역으로 확대될 경우, AI 활용의 기준은 성능 경쟁에서 책임성과 검증 체계까지 포함하는 방향으로 옮겨갈 가능성이 있다.