ETRI, ‘레드팀 테스팅’·‘신뢰성 라벨’ ISO 표준 착수
AI 안전성·신뢰성 확보, 국제표준 선도
한국전자통신연구원(ETRI)이 인공지능(AI) 시스템의 위험을 미리 찾아내는 ‘AI 레드팀 테스팅’ 표준과 소비자가 AI의 신뢰 수준을 쉽게 이해할 수 있는 ‘신뢰성 사실 라벨(TFL)’ 표준을 국제표준화기구(ISO/IEC)에 제안하고 본격 개발에 착수했다고 19일 밝혔다.
AI 레드팀 테스팅은 AI시스템이 얼마나 안전한지를 공격적으로 탐색하며 테스트하는 방법이다. 가령 생성AI가 잘못된 정보를 내놓거나 사용자 보호장치를 피해 악용되는 상황을 미리 찾아내는 형태다.
ETRI는 이 분야의 국제표준인 ISO/IEC 42119-7의 에디터 역할을 맡아 의료·금융·국방 등 다양한 분야에 공통으로 적용할 수 있는 국제 공통 시험 절차와 방법을 만들고 있다.
ETRI는 식품의약품안전처와 함께 내달 4일과 5일 양일 간 노보텔 서울 동대문 호텔에서 국내 최초로 ‘첨단 AI 디지털의료제품 레드팀 챌린지 및 기술 워크숍’도 개최한다.
서울아산병원과 협력해 의료 전용 레드팀 평가 방법론도 함께 개발 중이며 첨단 AI기술을 적용한 디지털 의료제품에 대한 레드팀 시험 체계도 만들고 실증 테스팅을 진행할 예정이다.
신뢰성 사실 라벨(Trustworthiness Fact Labels, TFL)은 AI시스템이 얼마나 신뢰할 수 있는지를 한눈에 알 수 있도록 시각화하는 것으로, ETRI는 ISO/IEC 42117 시리즈 표준 개발을 주도하고 있다.
이 표준은 기업이 스스로 정보를 제공하거나 제3의 기관이 검증·인증하는 다양한 방식으로 운영될 수 있다. 향후 AI의 탄소배출량과 같은 ESG 요소도 반영하는 방안도 검토 중이라고 ETRI는 설명했다.
특히 이 표준은 AI 활용 조직에 대한 국제 인증 표준으로 사용하고 있는 ‘AI경영시스템 표준(ISO/IEC 42001)’과도 연계해 개발된 제품 및 서비스가 얼마나 신뢰할 수 있는지 입증할 수 있는 틀로 자리매김할 전망이다.
정보통신기획평가원 김 욱 PM은 “AI 안전과 신뢰성 제공은 모두가 AI를 사용하는 것에 쉽게 다가가도록 하는 것으로, 이번 국제표준 선도는 AI 규범을 선도하는 국가로 가는 분기점”이라고 평가했다.
ETRI 이승윤 표준연구본부장도 “AI 레드팀 테스팅과 신뢰성 라벨은 미국·EU 등 각국 AI 규제정책에 포함된 핵심 기술 요소로 이 국제 표준은 전세계 AI시스템의 안전과 신뢰성을 평가하는 공통 기준이 될 것”이라고 말했다.