메트로人 머니 산업 IT·과학 정치&정책 생활경제 사회 에듀&JOB 기획연재 오피니언 라이프 AI영상 CEO와칭 플러스
글로벌 메트로신문
로그인
회원가입

    머니

  • 증권
  • 은행
  • 보험
  • 카드
  • 부동산
  • 경제일반

    산업

  • 재계
  • 자동차
  • 전기전자
  • 물류항공
  • 산업일반

    IT·과학

  • 인터넷
  • 게임
  • 방송통신
  • IT·과학일반

    사회

  • 지방행정
  • 국제
  • 사회일반

    플러스

  • 한줄뉴스
  • 포토
  • 영상
  • 운세/사주
IT/과학>IT/인터넷

AI 기본법 시행령 입법예고… '고지 의무'에 업계·법조계 ”불확실성 크다“

정부, '고영향 AI'·'생성형 AI' 사용 사실 고지 의무화
과태료는 최소 1년 유예… "진흥 우선, 규제 최소화"
법조계 "고영향 AI 기준 모호, 개발 후 이중 부담 우려"
업계 "텍스트 워터마크 등 기술적 한계 고려해야"

2024년 12월 서울 여의도 국회에서 열린 제420회 국회(임시회) 제1차 본회의에서 인공지능의 건전한 발전과 신뢰 기반 조성을 위한 기본법을 제정하는 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(대안)이 가결되는 모습. /뉴시스

정부가 '필요 최소한의 규제'를 내세우며 AI 기본법 시행령을 내놨지만, 정작 산업계와 법조계에서는 모호한 기준이 기술 개발의 발목을 잡을 것이란 우려가 거세지고 있다. 정부는 산업 진흥을 위해 과태료 부과를 최소 1년간 유예하는 등 '필요최소한의 유연한 규제'를 강조했지만, 업계와 법조계에서는 핵심 규정의 기준이 모호해 현장의 혼란과 기술 개발 위축을 초래할 수 있다는 우려가 동시에 터져 나오고 있다.

 

16일 관련 취재를 종합해보면, 과학기술정보통신부가 'AI 기본법 시행령' 제정안을 입법예고하고, 12월 22일까지 의견 수렴을 받는다. 제정안은 내년 1월 22일 시행될 예정이다.

 

시행령의 핵심은 '투명성'과 '안전성' 확보다. 우선 AI 사용 고지 의무에 따라 사업자는 고영향 AI나 생성형 AI 기반 제품·서비스를 제공할 때, AI가 운용된다는 사실을 이용자에게 사전에 알려야 한다.

 

특히 딥페이크처럼 실제와 구분하기 어려운 생성형 AI 결과물에는 'AI로 생성됐다'는 사실을 명확히 고지하도록 생성물 표시 규정이 강화됐다. 이는 지난 9월 초안의 '권장' 수준에서 '법적 의무'로 격상된 것이다. 주목할 점은 C2PA 같은 비가시적 워터마크(메타데이터)만으로는 의무를 다한 것으로 보지 않는다는 점이다. 정부는 이를 '추가적 기술 수단'으로 규정하고, 사람에게도 최소 1회 이상 문구나 음성으로 안내해야 한다고 명문화했다.

 

또 국민의 생명, 신체, 기본권에 중대한 영향을 미칠 수 있는 영역(보건의료, 교통, 교육 등)의 AI를 '고영향 AI'로 분류하고, 사업자가 스스로 AI 영향평가를 실시해 기본권 침해 가능성과 완화 방안을 마련하도록 했다. 안전성 확보 의무 대상은 학습 시 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 시스템으로 정했다.

 

나아가 오픈AI, 앤스로픽 등 글로벌 AI 사업자도 매출 1조 원 이상 등 일정 기준을 충족하면 국내 대리인을 지정하도록 의무화함으로써 책임 회피를 막았다.

 

정부는 AI 산업 육성을 위해 AI 연구개발(R&D), 집적단지 지정 등 진흥책도 함께 담았다. 또한 제도의 현장 안착을 위해 최소 1년 이상의 과태료 계도기간을 운영하고, 통합안내지원센터(가칭)를 통해 기업 문의에 대응할 방침이다.

 

정부의 '진흥 우선' 기조에도 불구하고 산업계와 법조계의 우려는 크다. 당장 폐암 진단 AI나 레벨 4 이상 자율주행차, 소형모듈원자로(SMR) 제어 AI 등 미래 성장동력이 '고영향 AI'로 분류될 가능성이 높기 때문이다.

 

한 예로, AI가 2초 만에 흉부 영상 병변을 분석해 의사의 진단을 돕는 의료 AI 플랫폼이 고영향 AI로 분류되면, 기업은 위험 관리 방안 마련, 학습 데이터 공개, 출시 전 영향평가 등 복잡한 의무를 져야 한다. 업계에서는 AI 산업 특성상 잦은 업데이트가 필요한데, 이런 행정 절차가 기술 개발의 발목을 잡을 수 있다고 지적한다.

 

최근 열린 'AI 기본법 하위법령 분석과 평가' 세미나에서는 법적 불확실성에 대한 전문가들의 지적이 쏟아졌다.

 

마경태 김앤장 변호사는 '고영향 AI' 확인 절차의 비효율성을 지적했다. 그는 "고영향 AI 확인은 기획 단계에서 이뤄져야 하는데, 확인 요청서에 내야 할 서류(시스템 구성, 학습 데이터 개요 등)는 개발 완료 후에나 알 수 있는 정보"라며 "개발 완료 후 고영향 AI로 판정되면 전체 과정을 다시 검토해야 하는 이중 부담이 발생할 수 있다"고 비판했다.

 

또한 '의미 있는 인적 개입'이 고영향 AI 판단 기준 중 하나로 제시된 것도 모순이라고 지적했다. 인적 개입은 위험 '완화 조치'이지, 위험을 '판단하는 기준'이 되기 어렵다는 것이다.

 

김유진 김앤장 변호사는 '투명성(고지) 의무'의 모호함을 지적했다. 그는 "'실제와 구분하기 어려운 경우'의 기준이 되는 이용자가 불명확하다"며 "텍스트 콘텐츠는 복사·편집이 쉬워 워터마크 적용이 사실상 불가능함에도 예외 규정이 없다"고 꼬집었다. 이어 '내부 업무'용 콘텐츠에 대한 표시 의무 면제 조항 역시 계열사나 외주 업체 공유가 '내부'에 포함되는지 등 해석 기준이 보완되어야 한다고 제언했다.

 

배경훈 과기정통부 장관은 "입법예고 기간 현장의 다양한 의견을 수렴해 AI 산업 발전과 안전·신뢰 기반 조성이라는 입법 취지를 잘 반영하겠다"고 밝혔다.

 

트위터 페이스북 카카오스토리 Copyright ⓒ 메트로신문 & metroseoul.co.kr