인텔·조지아텍, 美 DARPA 추진 ‘GARD 프로그램’ 참가…ML 알고리즘 고도화 협력

최태우 기자 / 기사승인 : 2020-04-13 14:50:20
  • -
  • +
  • 인쇄
▲ 적대적 이미지가 새겨진 티셔츠 AI가 이미지 인식 오류를 일으키는 예시 [source=intel labs]

[IT비즈뉴스 최태우 기자] 인텔과 조지아공과대학교가 미 국방성 산하 ‘방위고등연구계획국(DARPA)’이 추진하는 GARD 프로그램에 공동 참가한다.

GARD(Guaranteeing AI Robustness against Deception) 프로그램은 머신러닝(ML) 모델을 겨냥한 기만 공격에 대한 방어를 개선하기 위해 수백만 달러 상당의 자금을 바탕으로 출범된 4년 기간의 프로그램이다. 인텔은 GARD 프로그램의 주계약업체이다.

적대적 공격은 데이터에 대한 ML 알고리즘의 분석을 속이거나 변경하거나 혹은 손상시키는 것이 목표다. AI/ML 모델이 반자율적 혹은 자율적인 시스템으로 점점 더 통합되고 있는 만큼, 예상치 못하거나 기만적인 상호작용의 안정성, 안전성 및 보안을 지속적으로 개선하는 것이 중요하다.

예를 들어 픽셀 단위에서 AI의 오분류와 오역은 이미지 전체에 대한 오역과 잘못된 분류로 이어질 수 있다. 또 실제 사물에 대한 미세한 수정으로 인해 AI 인식 시스템이 혼동될 수 있다.

현재의 방어체계는 사전정의된 특정 적대적 공격을 막는 것에 집중돼 있으나 사전정의 범주 외의 공격에는 취약한 상태다.

 

GARD는 ML 모델이 데이터를 잘못 분류하거나 해석할 수 있는 시나리오를 기반으로 가능한 많은 공격을 다루는 광범위한 방어 체계를 개발함으로써 방어 체계에 접근하는 것을 목표로 운영된다.

특히 효과성을 평가할 수 있는 엄격한 기준을 가진 기만 공격에 대비한 ML 기술, 모델을 구축하는 것이 GARD의 최종 목표다.

제이슨 마틴 인텔랩스 수석엔지니어 겸 DARPA GARD 프로그램 수석조사관은 “인텔과 조지아공과대학은 AI와 ML의 취약성에 대한 생태계 공동의 이해와 완화 능력을 증진시키기 위해 협력하고 있다”며 “일관성 기법에서 혁신적인 연구를 통해 개체 탐지를 강화하고 AI, ML이 적대적 공격에 대응할 수 있는 능력을 향상시키기 위한 접근방법에 대해 협력하고 있다”고 말했다.

 

[저작권자ⓒ IT비즈뉴스. 무단전재-재배포 금지]

  • 글자크기
  • +
  • -
  • 인쇄
뉴스댓글 >

주요기사

+

많이 본 기사

마켓인사이트

+

컴퓨팅인사이트

+

스마트카

+

PHOTO NEWS