‘이루다’의 생각을 알 수 있을까… KISDI, AI 정책 세미나 개최
팽동현 기자
3,202
공유하기
![]() |
2일 열린 ‘사람 중심의 AI 구현을 위한 정책 세미나’에서 문정욱 정보통신정책연구원 지능정보사회정책센터장이 발표하는 모습 /사진=온라인 캡처 |
2일 과기정통부와 정보통신정책연구원(KISDI)이 ‘사람 중심의 AI 구현을 위한 정책 세미나’를 개최했다. 서울 서초구 더케이호텔에서 열린 이번 행사는 유튜브를 통한 온라인 중계도 병행됐다.
첫 주제발표에 나선 문정욱 KISDI 지능정보사회정책센터장은 ‘AI 윤리 기준과 추진과제’에 대해 발표했다. 미국과 일본, EU와 OECD 등 세계 각국과 주요 국제기구의 AI 윤리 원칙 수립 현황과 함께 우리정부에서 추진 중인 ▲AI 생태계 참여 주체별 체크리스트 ▲AI 윤리 교육 프로그램 ▲AI 윤리 기준 지속 보완·거버넌스 등을 소개했다.
문 센터장은 “사람 중심의 AI가 구현되려면 무엇보다 AI 생태계 참여자와 이해관계자들 사이에 신뢰를 기반으로 소통과 논의가 이뤄져야 한다”면서 “이런 고민과 토론을 통해 신뢰할 수 있는 인공지능사회·지능정보사회에 도달할 수 있을 것”이라고 말했다.
두 번째 발표자로 나선 변순용 서울교대 교수는 ‘AI 윤리교육의 방향과 도전’을 주제로 연단에 올랐다. AI로 비롯되는 사회적 문제를 극복하려면 모두가 AI를 윤리적으로 활용할 수 있어야 하며, 우리 사회의 보편성과 특수성이 반영된 AI 윤리교육이 이뤄져야 한다고 주장했다.
변 교수는 “이루다 사태는 개발자 윤리 문제와 사용자 윤리 문제가 동시에 불거진 경우”라며 “중요한 것은 AI를 윤리적으로 활용할 수 있는 역량이다. 개발사와 사용자가 기본적인 윤리 의식을 갖춘다면 이런 사태는 다시 발생하지 않을 것”이라고 설명했다.
마지막 주제발표는 이현규 정보통신기획평가원(IITP) AI·데이터 PM이 ‘AI 기술의 신뢰 확보’에 대해 다뤘다. 결과까지 과정을 파악하기 어려운 딥러닝 블랙박스 문제를 해결하기 위한 여러 시도를 소개하면서 ‘설명 가능한 AI’의 중요성을 강조했다. 이에 따라 AI 투명성을 확보하기 위한 신뢰성 도구 개발도 추진되고 있다.
이 PM은 로 “차세대 AI사업 예타를 하면서 느낀 점은, AI에 대한 신뢰와 윤리는 기술적인 관점에서만 접근할 게 아니라 사회적 합의와 제도 등으로 공론화돼야 한다는 것”이라며 “이루다 사태는 전화위복이 될 수 있다고 생각한다. 투명성을 확보해주는 툴과 인증제도로 신뢰할 수 있는 AI를 만든다면 장차 수출에도 도움이 될 것”이라고 내다봤다.
<저작권자 ⓒ ‘성공을 꿈꾸는 사람들의 경제 뉴스’ 머니S, 무단전재 및 재배포 금지>
<보도자료 및 기사 제보 ( [email protected] )>