생성AI, 보안 측면에서는?…‘적극 도입 vs 우려 증대’ 공존

이스트시큐리티, LLM 활용 관련 보안 담당자 설문결과 발표 생성AI활용, 보안 우려점 확인

2025-02-06     오현식 기자
[사진=게티이미지]

이스트시큐리티가 국내 기업 보안 담당자를 대상으로 생성형 인공지능(AI), 거대언어모델(LLM) 활용에 대한 설문조사 결과를 발표했다. 이 설문은 이스트시큐리티가 지난해 12월 개최한 ‘기업 LLM 필수 보안 전략 웨비나’에 참가자 200여명을 대상으로 진행됐다. 

최근 챗GPT, 바드 등 생성AI 모델이 기업 업무 프로세스 전반을 빠르게 바꾸고 있다. 하지만 이번 보안 담당자 대상 설문에서는 ‘적극 도입’과 ‘우려 증대’라는 상반된 의견이 혼재하는 양면적인 분위기가 나타났다. 

설문결과를 살펴보면, 응답자 절반이 생성AI를 업무에 적용했다고 밝혔다. 데이터 분석·의사결정 지원(42%), 고객 서비스(30%), 콘텐츠 생성 및 자동화(28%) 분야에서 생성AI를 활용해 효율적으로 인사이트를 도출하거나, 고객과의 커뮤니케이션을 자동화하고 있는 것이다. 

하지만 민감 데이터의 유출 등에 대한 우려도 높게 나타났다. 전체 응답자의 64.5%가 민감 데이터의 유출을 생성AI 활용 환경의 가장 큰 우려로 지적했으며, 79%는 중간 이상 수준의 우려를 나타냈다.

이는 기밀 문서, 고객 정보, 소스코드 등이 AI에 입력·학습되는 과정에서 발생할 수 있는 데이터 침해 위험이 현실적으로 크다는 것을 반영한다고 이스트시큐리티는 풀이했다. 

아울러 87%의 응답자는 LLM 보안을 위한 전문 솔루션이 필요하다고 답했다. 특히 가장 큰 우려점인 민감 데이터 유출 차단 기능이 가장 중요한 고려 요소로 꼽혀 LLM 사용 과정에서 기밀 정보가 외부로 유출되지 않도록 하는 보안 수준이 무엇보다 중요하다는 결론을 재확인할 수 있게 했다. 

또 전체 응답자 중 58%는 생성AI 사용, 혹은 도입을 고려하고 있으며, 필요 시 전문 보안 솔루션까지 검토하겠다고 밝혔다.

LLM도입 시 가장 우려되는 보안 이슈 [사진=이스트시큐리티]

반면 24%는 내부 정책상 생성형 AI 사용을 제한 중이며, 관련 솔루션 도입 계획도 없다고 응답했다. 이는 기업별로 도입 수준에 따른 보안 대응 온도의 차이가 존재함을 보여주는 단면이다. 

이스트시큐리티는 설문조사 결과에 대해 “생성AI가 이미 많은 기업에서 업무 효율과 혁신을 이끌고 있지만, 동시에 데이터 유출과 악의적 공격 등의 새로운 위협을 만들어내고 있다는 사실을 드러낸다”고 정리했다.

응답자의 87%가 ‘LLM 전문 보안 솔루션이 필요하다’고 응답했으며, 가장 중요한 고려 요소로 ‘민감 데이터 유출 차단 기능’을 지목한 것은 단순히 AI의 ‘활용’을 넘어 ‘기업 자산을 어떻게 안전하게 지킬 것인가에 대한 해답’이 필요함을 보여준다는 것이다. 

김병훈 이스트시큐리티 CTO는 “생성AI의 도입은 기업의 혁신과 효율성을 크게 향상시키지만, 이에 따른 보안위협도 가중시킨다”며 “이스트시큐리티는 기업들이 안전하게 AI를 활용할 수 있도록 지속적으로 보안 기술을 개발 및 고도화하고, 보다 안전한 LLM사용 환경을 만들기 위해 노력할 것”이라고 밝혔다.

한편, 이스트시큐리티는 기업 내 LLM 사용 시 발생할 수 있는 데이터 유출과 악성 콘텐츠 수신 위협을 탐지·차단하기 위해 차세대 보안 솔루션 '알약xLLM'을 개발하고, 올해 정식 출시할 예정이다.