정부는 지난해 발표한 'AI 윤리기준'의 실천방안을 담은 '신뢰할 수 있는 인공지능 실현전략'을 발표했다. 이번 전략은 3대 전략과 10대 실행과제를 통해 2025년까지 단계적으로 추진된다.
정부는 또 AI가 국민생활에 미치는 영향을 평가하기 위해 '사회적 영향평가'를 도입하고, 최근 '이루다 사태'로 'AI 기업을 인증하는 제도가 필요하다'는 요구가 증가함에 따라, 민간 자율 인증제도 도입을 논의 중이다.
과학기술정보통신부는 13일 대통령 직속 '4차산업혁명위원회 제22차 전체회의'에서 사람이 중심이 되는 인공지능을 위한 실현전략을 발표했다.
김경만 과기정통부 인공지능기반정책과장은 13일 브리핑을 통해 "유럽은 지난 4월 인공지능 법안을 제안하면서 고위험 인공지능 중심으로 규제체계를 발표했으며, 미국은 기술개발과 민간 자율규제를 중심으로 AI 신뢰성 확보를 추진 중이고, 프랑스도 AI 신뢰 기준을 만들어 시민 3000여명이 참여하는 공개 토론회를 개최하는 등 정책을 추진하고 있다"며 "우리나라도 '인공지능 강국'으로 도약하기 위해 신뢰할 수 있는 인공지능 실현을 위한 지원 정책이 조속히 필요하다"고 설명했다.
이번 전략은 민간이 자율적으로 신뢰할 수 있는 지원체계를 구축하고, 스타트업에 대한 지원책도 담았다.
우선, AI 제품·서비스 구현단계별 신뢰 확보 체계를 마련한다. AI 제품 구현 단계가 개발→ 검증→ 인증으로 진행됨에 따라, '개발' 단계에서는 국내·외 신뢰성 관련 법 제도·윤리·기술적 요구사항을 확인할 수 있는 '개발 가이드북'을 제작·보급한다. '검증' 단계에서는 개발 가이드북을 준수한 신뢰성 확보 여부와 수준을 평가할 수 있는 검증절차·항목·방법 등 '검증체계'를 제시한다. '인증' 단계에서는 기술·윤리적 요구사항을 충족해 검증체계를 통과한 제품·서비스에 대해 민간 자율 인증과 공시를 추진한다.
과기정통부는 또 기술·재정적 상황이 열악한 스타트업도 신뢰성을 확보해 나갈 수 있도록 AI를 위한 '데이터 확보→ 알고리즘 학습→ 검증'을 통합 지원하는 플랫폼을 운영한다. 학습용 데이터와 컴퓨팅 자원을 지원 중인 'AI 허브(Hub)' 플랫폼에서 신뢰 속성별 수준 분석, 실(實)환경 테스트 등 기능을 추가 개발해 일괄 지원한다.
AI의 설명가능성, 공정성, 견고성 제고를 위한 원천기술 개발도 추진한다. 우선, AI 학습용 데이터의 신뢰성을 제고하기 위해 민관이 AI 학습용 데이터 제작공정에서 준수해야할 신뢰 확보 검증지표 등 표준 기준을 민간과 함께 마련한다. '데이터 댐' 사업에서는 구축 전 과정에서 저작권, 개인정보보호와 같은 법·제도 준수 여부 등 신뢰성 확보 고려사항을 선제적으로 적용한다.
고위험 AI에 대한 신뢰 확보도 추진한다. 국민의 안전에 잠재적 위험을 미칠 수 있는 고위험 AI의 범주를 설정하고, 서비스 제공 전 해당 AI의 활용 여부를 이용자에게 고지할 계획이다. 고지 이후, 해당 AI 서비스에 대한 '이용 거부'나 AI의 판단 근거에 대한 '결과 설명' 및 '이의제기' 등 제도화를 중장기적으로 검토할 계획이다. 또 사회적 영향평가를 통해 안정성·투명성 등 신뢰성 요소를 토대로 AI 영향력을 종합 분석해 AI 정책이나 기술·관리적 조치방안 수립 시 활용할 계획이다.
AI 신뢰 강화를 위한 제도 개선에도 나선다. 지난해 '인공지능 법·제도·규제 정비 로드맵'을 통해 발굴된 과제 중 ▲업계 자율적 알고리즘 관리·감독환경 조성 ▲플랫폼 알고리즘 공정성·투명성 확보 ▲영업비밀 보장을 위한 알고리즘 공개기준 마련 ▲고위험 기술기준 마련 등 관련 제도를 개선할 계획이다.
건전한 AI 의식 확산을 위해 AI 윤리교육 총론을 마련하고, 연구·개발자, 일반시민 등 맞춤형 윤리 교육을 개발·실시한다. 또 AI 윤리기준에 대한 행위지침으로, 연구·개발자, 이용자 등이 윤리 준수 여부를 자율점검할 수 있는 체크리스트를 개발·보급하기로 했다.
또 윤리 정책 플랫폼을 운영해 학계·기업·시민단체·공공 등 구성원이 참여해 AI 윤리에 대해 심도 깊게 토의하고 발전방향을 논의하는 공론의 장을 마련한다.
과기정통부 최기영 장관은 "최근 발생한 챗봇 사건은 우리 사회가 AI의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다"며, "과기정통부는 기업·연구자 등이 AI 제품·서비스 개발 과정에서 혼란을 겪거나 국민이 피해를 보지 않도록 AI 신뢰 확보 기준을 명확화하고, 재정적으로 부족한 중소기업이 신뢰성 기준을 준수하는 데 어려움이 없도록 지원 방안을 마련해 나갈 것"이라고 밝혔다.
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성