2024.04.19 (금)

  • 구름많음속초14.0℃
  • 구름많음19.1℃
  • 구름많음철원19.2℃
  • 구름많음동두천17.7℃
  • 흐림파주15.2℃
  • 구름많음대관령12.4℃
  • 구름많음춘천21.2℃
  • 흐림백령도12.0℃
  • 황사북강릉13.5℃
  • 구름많음강릉15.4℃
  • 구름많음동해14.3℃
  • 흐림서울18.2℃
  • 흐림인천14.7℃
  • 흐림원주20.8℃
  • 황사울릉도16.1℃
  • 구름많음수원16.5℃
  • 흐림영월18.9℃
  • 구름많음충주19.1℃
  • 구름많음서산15.8℃
  • 흐림울진16.2℃
  • 구름많음청주21.3℃
  • 구름많음대전20.5℃
  • 구름많음추풍령18.7℃
  • 구름많음안동21.3℃
  • 구름많음상주22.6℃
  • 흐림포항23.4℃
  • 흐림군산15.4℃
  • 구름조금대구23.4℃
  • 구름많음전주19.5℃
  • 황사울산17.9℃
  • 황사창원17.5℃
  • 구름많음광주21.5℃
  • 황사부산16.9℃
  • 구름많음통영15.8℃
  • 구름많음목포18.7℃
  • 구름많음여수17.3℃
  • 흐림흑산도14.1℃
  • 구름많음완도15.6℃
  • 구름많음고창16.3℃
  • 구름많음순천16.3℃
  • 구름많음홍성(예)17.6℃
  • 구름많음19.0℃
  • 황사제주17.9℃
  • 흐림고산16.5℃
  • 구름많음성산17.0℃
  • 황사서귀포17.8℃
  • 구름많음진주18.7℃
  • 흐림강화12.8℃
  • 흐림양평20.2℃
  • 구름많음이천19.5℃
  • 구름많음인제19.1℃
  • 구름많음홍천20.2℃
  • 흐림태백14.6℃
  • 흐림정선군18.8℃
  • 흐림제천17.0℃
  • 구름많음보은18.5℃
  • 구름많음천안18.5℃
  • 흐림보령14.1℃
  • 흐림부여17.1℃
  • 구름많음금산18.9℃
  • 구름조금19.7℃
  • 흐림부안16.2℃
  • 흐림임실18.9℃
  • 흐림정읍17.7℃
  • 구름많음남원19.7℃
  • 구름많음장수15.7℃
  • 구름많음고창군16.0℃
  • 구름많음영광군17.2℃
  • 구름많음김해시18.3℃
  • 구름많음순창군19.5℃
  • 구름많음북창원19.7℃
  • 구름조금양산시18.9℃
  • 구름많음보성군17.1℃
  • 구름많음강진군17.8℃
  • 구름많음장흥15.7℃
  • 구름많음해남15.7℃
  • 구름많음고흥15.6℃
  • 흐림의령군20.6℃
  • 구름많음함양군18.8℃
  • 구름많음광양시19.2℃
  • 흐림진도군16.2℃
  • 흐림봉화16.9℃
  • 구름많음영주20.1℃
  • 구름많음문경19.4℃
  • 구름많음청송군16.9℃
  • 구름많음영덕16.9℃
  • 구름많음의성18.3℃
  • 구름조금구미20.0℃
  • 구름많음영천23.0℃
  • 구름많음경주시20.9℃
  • 흐림거창19.3℃
  • 흐림합천21.4℃
  • 구름많음밀양20.8℃
  • 구름많음산청19.2℃
  • 구름많음거제18.2℃
  • 구름많음남해17.6℃
  • 구름많음17.6℃
공주대 최대선 교수, AI 속이는 공격자 AI 개발 '화제'
  • 해당된 기사를 공유합니다

공주대 최대선 교수, AI 속이는 공격자 AI 개발 '화제'

최대선 교수.jpg

[공주일보] 공주대학교(총장 원성수)는 최대선 교수가 얼굴에 몇 개의 점을 붙여 얼굴인식 AI가 다른 사람으로 인식하게 만드는데 성공했다고 밝혔다. 

 

연구팀이 개발한 공격자 AI에 얼굴 사진을 입력하면 얼굴에 붙일 점 스티커를 만들어주고, 점을 붙일 위치를 알려준다. 공격자 AI가 알려준 대로 얼굴에 점 스티커를 붙이면, 얼굴인식 AI는 전혀 다른 사람으로 인식하게 된다.

보안 분야에서는 이미지나 보이스에 약간의 변형을 가해 딥러닝 AI를 속일 수 있는 기만 공격이 가능하다고 알려져 왔으며, 기만 공격을 통해 자율 주행 자동차가 좌회전 표지판을 우회전으로 인식하게 되는 등 심각한 문제를 야기할 수 있어 AI의 보안 취약점으로 지적되고 있다.
 
이러한 변형 데이터를 적대적 예제 (adversarial example)이라고 부르며, AI를 기만하는데 사용한다. 공격자 AI가 어떻게 변형해야 하는지를 자동으로 찾아주므로 이러한 적대적 예제를 쉽게 생성할 수 있으며, 이를 방어하는 것도 어렵다고 알려져 있다.
 
사람 목소리에 약간의 잡음을 추가하여 음성인식 AI를 속이는 기만 공격 사례도 알려져 있다. 방송에서 앵커가 말한 “A상품을 주문해라”는 음성을 명령으로 인식해 실제 상품을 주문한 아마존 AI 스피커의 사례가 있는데, 적대적 예제를 적용할 경우 “안녕하십니까”라는 말을 듣고도 상품을 주문할 수 있다.  
 
이번 공주대 연구는 이미지 상태가 아닌 실제 얼굴에 약간의 분장을 통해 얼굴인식 AI를 기만할 수 있다는 것을 보여준 세계 최초 연구로, AI 적용 분야가 확대되어 가는 가운데 AI 보안 취약점이 큰 문제를 야기할 수 있는 사례이다.
 
해외에서는 표지판에 스티커를 붙여 오인식하게 만드는 연구가 소개된 바 있으나, 얼굴 분장을 통한 얼굴인식 AI를 기만하는 사례는 이번 공주대 연구가 최초이다.
 
연구팀을 이끈 최대선 교수는 “이러한 기만 공격 이외에도 AI의 오동작을 유발하거나, 학습에 사용된 데이터를 추출하여 프라이버시를 침해하는 등 여러 가지 AI 보안 취약점이 알려져 있다”며 “최근 AI에 대한 국가적 관심과 산업계의 적용이 활발한 가운데 AI 보안 문제에 대해서도 심각성을 인식하고 대비해야 한다”고 말했다.
 

얼굴인식AI.jpg

 

씨에이미디어그룹.jpg






모바일 버전으로 보기