2024.05.15 (수)

  • 흐림속초11.7℃
  • 비11.9℃
  • 흐림철원9.4℃
  • 흐림동두천9.3℃
  • 흐림파주10.3℃
  • 흐림대관령7.1℃
  • 흐림춘천11.5℃
  • 맑음백령도13.7℃
  • 비북강릉10.9℃
  • 흐림강릉11.9℃
  • 흐림동해12.4℃
  • 비서울11.4℃
  • 비인천11.0℃
  • 흐림원주14.5℃
  • 구름많음울릉도14.1℃
  • 비수원11.1℃
  • 흐림영월14.6℃
  • 흐림충주14.0℃
  • 흐림서산10.5℃
  • 흐림울진15.6℃
  • 비청주12.5℃
  • 비대전11.6℃
  • 흐림추풍령17.7℃
  • 구름많음안동23.7℃
  • 흐림상주19.7℃
  • 맑음포항17.1℃
  • 흐림군산11.1℃
  • 구름많음대구26.1℃
  • 비전주12.0℃
  • 맑음울산24.0℃
  • 맑음창원23.1℃
  • 비광주12.4℃
  • 맑음부산22.0℃
  • 맑음통영21.7℃
  • 구름많음목포11.6℃
  • 구름조금여수21.9℃
  • 구름많음흑산도13.1℃
  • 흐림완도15.4℃
  • 흐림고창10.3℃
  • 흐림순천15.1℃
  • 비홍성(예)11.4℃
  • 흐림11.1℃
  • 흐림제주16.7℃
  • 흐림고산15.1℃
  • 구름조금성산17.2℃
  • 구름많음서귀포19.8℃
  • 구름많음진주24.6℃
  • 흐림강화10.6℃
  • 흐림양평11.9℃
  • 흐림이천12.1℃
  • 흐림인제10.7℃
  • 흐림홍천12.2℃
  • 흐림태백9.8℃
  • 흐림정선군11.8℃
  • 흐림제천16.0℃
  • 흐림보은13.1℃
  • 흐림천안11.6℃
  • 흐림보령10.9℃
  • 흐림부여11.7℃
  • 흐림금산12.3℃
  • 흐림11.2℃
  • 흐림부안11.4℃
  • 흐림임실11.8℃
  • 흐림정읍11.4℃
  • 흐림남원14.0℃
  • 흐림장수12.4℃
  • 흐림고창군10.8℃
  • 흐림영광군11.1℃
  • 맑음김해시24.2℃
  • 흐림순창군12.6℃
  • 맑음북창원23.8℃
  • 맑음양산시24.2℃
  • 흐림보성군15.6℃
  • 흐림강진군14.2℃
  • 흐림장흥14.9℃
  • 흐림해남12.7℃
  • 흐림고흥17.0℃
  • 구름많음의령군24.9℃
  • 흐림함양군18.5℃
  • 구름많음광양시21.5℃
  • 흐림진도군12.0℃
  • 흐림봉화16.4℃
  • 흐림영주21.8℃
  • 흐림문경18.1℃
  • 맑음청송군20.9℃
  • 맑음영덕16.0℃
  • 구름조금의성25.3℃
  • 흐림구미23.4℃
  • 맑음영천21.1℃
  • 맑음경주시19.6℃
  • 흐림거창20.8℃
  • 구름많음합천24.9℃
  • 맑음밀양24.9℃
  • 구름많음산청21.3℃
  • 맑음거제21.1℃
  • 구름조금남해22.4℃
  • 맑음22.6℃
공주대 최대선 교수, AI 속이는 공격자 AI 개발 '화제'
  • 해당된 기사를 공유합니다

교육

공주대 최대선 교수, AI 속이는 공격자 AI 개발 '화제'

최대선 교수.jpg

[공주일보] 공주대학교(총장 원성수)는 최대선 교수가 얼굴에 몇 개의 점을 붙여 얼굴인식 AI가 다른 사람으로 인식하게 만드는데 성공했다고 밝혔다. 

 

연구팀이 개발한 공격자 AI에 얼굴 사진을 입력하면 얼굴에 붙일 점 스티커를 만들어주고, 점을 붙일 위치를 알려준다. 공격자 AI가 알려준 대로 얼굴에 점 스티커를 붙이면, 얼굴인식 AI는 전혀 다른 사람으로 인식하게 된다.

보안 분야에서는 이미지나 보이스에 약간의 변형을 가해 딥러닝 AI를 속일 수 있는 기만 공격이 가능하다고 알려져 왔으며, 기만 공격을 통해 자율 주행 자동차가 좌회전 표지판을 우회전으로 인식하게 되는 등 심각한 문제를 야기할 수 있어 AI의 보안 취약점으로 지적되고 있다.
 
이러한 변형 데이터를 적대적 예제 (adversarial example)이라고 부르며, AI를 기만하는데 사용한다. 공격자 AI가 어떻게 변형해야 하는지를 자동으로 찾아주므로 이러한 적대적 예제를 쉽게 생성할 수 있으며, 이를 방어하는 것도 어렵다고 알려져 있다.
 
사람 목소리에 약간의 잡음을 추가하여 음성인식 AI를 속이는 기만 공격 사례도 알려져 있다. 방송에서 앵커가 말한 “A상품을 주문해라”는 음성을 명령으로 인식해 실제 상품을 주문한 아마존 AI 스피커의 사례가 있는데, 적대적 예제를 적용할 경우 “안녕하십니까”라는 말을 듣고도 상품을 주문할 수 있다.  
 
이번 공주대 연구는 이미지 상태가 아닌 실제 얼굴에 약간의 분장을 통해 얼굴인식 AI를 기만할 수 있다는 것을 보여준 세계 최초 연구로, AI 적용 분야가 확대되어 가는 가운데 AI 보안 취약점이 큰 문제를 야기할 수 있는 사례이다.
 
해외에서는 표지판에 스티커를 붙여 오인식하게 만드는 연구가 소개된 바 있으나, 얼굴 분장을 통한 얼굴인식 AI를 기만하는 사례는 이번 공주대 연구가 최초이다.
 
연구팀을 이끈 최대선 교수는 “이러한 기만 공격 이외에도 AI의 오동작을 유발하거나, 학습에 사용된 데이터를 추출하여 프라이버시를 침해하는 등 여러 가지 AI 보안 취약점이 알려져 있다”며 “최근 AI에 대한 국가적 관심과 산업계의 적용이 활발한 가운데 AI 보안 문제에 대해서도 심각성을 인식하고 대비해야 한다”고 말했다.
 

얼굴인식AI.jpg

 

씨에이미디어그룹.jpg






모바일 버전으로 보기