가트너, 생성AI 오용 위험성 경고
2027년 AI 관련 데이터 유출사고 40%는 ‘생성AI’
가트너가 국경을 넘나드는 부적절한 생성형 인공지능(AI) 사용이 2027년까지 AI 관련 데이터 유출 사고의 40% 이상이 될 것이라고 경고했다.
생성AI 기술 도입 속도가 데이터 거버넌스·보안 조치의 발전 속도를 앞지를 정도로 빨라지면서 데이터 현지화에 대한 우려를 높이는 것이다.
가트너는 글로벌 AI 표준화 격차가 운영 비효율성을 초래한다고 강조했다. AI와 데이터 거버넌스에 대한 일관된 글로벌 모범 사례와 표준이 없다면 시장이 세분화되고 기업이 전략을 지역별로 따로 수립할 수밖에 없어 기업의 글로벌 AI 운영 확장과 AI 제품·서비스 활용 능력이 저해될 수 있다는 것이다.
요그 프리츠 가트너 VP애널리스트는 “의도하지 않은 국경 간 데이터 전송은 주로 감독 미흡으로 인해 발생하는데, 특히 명확한 설명이나 발표 없이 생성AI가 기존 제품에 통합될 때 빈번하게 일어난다”고 언급했다.
이어 “이러한 도구는 승인된 업무용 애플리케이션에서는 유용하게 활용될 수 있지만 민감한 프롬프트가 알 수 없는 위치의 AI 도구나 API로 전송될 경우 보안에 위험을 미칠 수 있다”고 경고했다.
AI 정책이 지역에 따라 다르게 전개돼 데이터 흐름 관리·품질 유지가 복잡해지면 운영 비효율성이 발생할 수 있다.
민감한 데이터를 보호하고 규정 준수를 보장하기 위해 고급 AI 거버넌스와 보안에 투자해야 한다는 것으로, 결국 이는 AI 보안, 거버넌스, 규정 준수 서비스 시장의 성장과 AI의 투명성과 제어를 강화하는 솔루션의 발전을 촉진할 것이라는 게 가트너의 설명이다.
가트너는 AI 데이터 유출, 그 중에서도 국경을 넘는 생성AI 오용으로 인한 위험을 완화하고 규정 준수를 보장하기 위해 ▲국제 규정을 준수하고 의도치 않은 국경간 데이터 전송을 감시하는 데이터 거버넌스 강화 ▲AI 배포·데이터 처리에 대한 투명한 커뮤니케이션을 보장하기 위한 거버넌스 위원회 설립 등을 제시했다.
더불어 ▲민감 데이터를 보호하기 위한 고급 기술과 암호화·익명화를 활용하는 데이터 보안 강화 ▲AI기술에 맞춘 신뢰·위험·보안관리(TRiSM) 솔루션과 기능에 대한 투자 등도 필요하다고 조언했다.
2026년까지 AI TRiSM 제어를 적용한 기업은 부정확, 불법 정보를 최소 50% 감소시켜 잘못된 의사결정을 줄일 수 있다는 것이 가트너의 예측이다.
프리츠 VP애널리스트는 “필수 거버넌스 모델과 제어를 통합하지 못하고 데이터 거버넌스 프레임워크를 신속하게 확장할 리소스가 부족한 기업은 경쟁에서 불리해질 수 있다”고 말했다.
관련기사
- “진화하는 보안위협…조직-파트너-관리 이어지는 총체적 접근 필요”
- 팔로알토네트웍스 “딥시크 보안 취약점 발견…악용 우려”
- 미래 금융 산업 트렌드는 ‘연결성’·‘토큰화’·‘사이버보안’
- HPE, 보안·AI 자동화 기능 탑재 ‘12세대 프로라이언트’ 서버 출시
- 에이전트AI 도입 확산세…美 IT임원 77%는 ‘올해 도입 계획’
- “전세계 기업, 평균 29개 공급업체·83개 보안 솔루션 활용 중”
- 생성AI, 보안 측면에서는?…‘적극 도입 vs 우려 증대’ 공존
- KT, 보이스피싱 실시간 AI 알림 서비스 상용화
- 엔비디아, AI 가드레일용 NIM 마이크로서비스 출시
- 국내 기업 10곳 중 8곳, AI 기반 데이터 침해 사고 우려