[KT 에이블스쿨 - IT 트랜드] 국내외 AI 관련 규제
NIA (한국지능정보사회진흥원)의 디지털 법제 Brief 중
AI 규제와 관련된 내용 3개의 보고서를 읽고 발표에 참고했다.
해외 "사법기관 인공지능 이용지침"
- 보고서 링크- 발행일 24.02.15
이 보고서에는 사법기관에서 AI를 어떻게 이용하면 되는지를 지침으로 정의한 캐나다와 영국 사례를 소개했다.
캐나다와 영국은 23년 12월에 이를 마련했고, 호주와 뉴질랜드 등 같은 영연방 국가들도 유사한 지침을 내렸다.
캐나다
캐나다 "법원의 인공지능 이용 원칙 및 지침" (23.12.10)- AI 사용을 알리는 문구 명시
- 작성한 문서의 가장 앞쪽에 이런 문구를 명시해야함
- "Artificial intelligence(AI) was used to generate content in this document"
(인공지능을 사용하여 이 문서의 컨텐츠를 생성하였습니다)
- 7가지 원칙
- (책무) 의사결정에 인공지능을 사용할 가능성에 대해 책임
- (기본권 등 존중) 인공지능 사용으로 인해 사법 독립성, 사법 접근권 및 차별 없이 공정한 심리를 받을 권리 등이 침해되지 않도록 보장
- (비차별) 인공지능 사용으로 차별이 재생산되고 악화되지 않도록 보장
- (정확성) 인공지능의 이용에 사용된 데이터는 확인 및 검증된 데이터만 사용
- (투명성) 인공지능이 사용하는 모든 데이터 처리방법에 대해 외부 감사 실시
- (보안) 기밀성 프라이버시 출처표기 등이 보장되는 안전한 기술환경에서 데이터 저장 및 관리
- (사람의감시) 판사 및 재판 연구원은 인공지능 생성물을 자신들의 업무에 사용하고자 하는 경우 해당 생성물의 결과를 검증
- 공개협의(publicconsultation) 없이 자동화된 의사결정 도구 등 인공지능을 판결 명령에 사용해서는 안됨
7가지의 원칙이 있지만, 큰 틀의 의미는 AI 정보에 대한 주권은 본인에게 있다는 것이다.
검증이 필요하며 차별 없이 공정하도록 정확한 데이터를 사용해야한다는 것이다.
영국
영국 "법관 대상 인공지능 지침" (23.12.12)
- 7가지 준수 사항
- 1. (인공지능 이해 및 적용) 인공지능의 한계에 대한 이해 필요
- 생성형 AI는 학습한 데이터와 프롬프트에 근거하여 알고리즘에 따라 제공하므로 부정확할 수 있음
- LLM 학습데이터는 주로 미국법인 것에 유의
- 인공지능 답변의 질은 프롬프트를 입력하는 방법 등에 따라 결정며 정보는 부정 확불‧완전하거나 편향될 가능성 존재
- AI를 새로운 것을 생성하기 보다, 불확실한 것을 확인하는 용도로 이용할 것
- 2. (기밀성 및 프라이버시 보호) 챗봇에 입력된 정보는 전세계에 공개되므로 사적 또는 기밀정보 등을 챗봇에 입력해서는 안됨
- 3. (책무 및 정확성 보장) 인공지능의 정보 정확성 확인
- 4. (편견 주의) 인공지능의 학습데이터 오류 및 편향성을 고려
- 5. (보안) 보안유지를 위해 모범관행(best practices)을 따르고 무료보다 안전한 유료 서비스 이용
- 6. (책임 부담) 법관은 자신의 이름으로 생산된 자료에 대해 책임이있음
- 7. (법원 등 이용자의 인공지능 사용 여부 확인) 모든 법률대리인은 법원 제출 자료에 책임을 지고 해당자료가 정확하고 옳은 것임을 보장
미국 유타주, "인공지능 수정법"
- 보고서 링크
- 발행일 24.04.25
주정부 차원으로는 최초로 인공지능 법을 마련함
+ 24.03.13 제정, 24.05.01 시행
가장 주요한 내용 2가지를 정리해봐았다.
생성형 AI 이용 고지 의무를 이원화
1. 전문직 분야 => 사전, 의무
'사'자 직업(회계사, 건축가, 치료사, 건강 전문가 등)처럼 라이센스가 필요한 직종에서는
소비자에게 구두 또는 전자메세지로 생성형 인공지능 사용을 고지하도록 하고있어
약관 내용에 포함하는 건 이행으로 보기 어려움
2. 소매 및 서비스 업종 (영업 등) => 요청시
사람과 상호작용할때 소비자의 요청이 있는 경우 명확하고 분명하게 고지해야한다.
명확하고 분명하게 라는 말이있기에 이 또한 약관에 내용을 포함하는 걸로는 이행이 어려움
전문직종에서 자격있는 사람만 AI로 서비스 제공
AI 기술 발전에 따라 향후 전문직에서 AI가 직접 업무를 수행하는 것에 대비해
자격 또는 인‧허가 없이는 생성형 인공지능을 이용하여 해당직종의 서비스를 제공할 수 없음을 명확화함
국내 AI 규제
1. AI 기본법과 워터마크 의무화
'인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률안(이하 AI기본법)은 23년 2월에
국회 과학기술정보방송통신위원회(과방위) 법안2소위를 통과했으나,
1년 넘게 상임위 전체 회의에 계류 중으로 통과되지 못함
AI 기본법에 생성형 AI 워터마크 표시를 의무화가 포함됨
* 워터마크 : 사람 눈에 보이지 않는 컴퓨터용 식별신호
2. 사법 분야
현재 우리나라는 사법분야에서 생성형 AI 이용에 관한 법규가 아직 없는 상황
생성형AI 확산세를 고려해 국내에서도 이용원칙이나 준수사항 등 마련을 적극 검토할 필요가 있고, 판결문에 대한 공개학습 활용방안 등도 데이터 확보를 위해 필요다는 목소리가 있음
인사이트
1. AI 규제
행정분야, 예술문화 등 다양한 분야에서 AI가 이용되고 있는데, AI 규제는 이런 시장 활성화를 저하시킬 수 있다고 생각한다.
그래서, AI 규제를 강화하는 입장보다는 최소한의 규제가 마련되어야할 것 같다.
특히, 사법분야는 개인의 형벌이 좌지우지 되는 곳이기에 AI 이용 지침이 지정되어서 가짜 정보로 피해자가 생기지 않도록 규제가 필요한 듯하다.
2. AI 정보 검증
해외의 지침을 보면, 가장 중요한 것은 AI가 만든 것임을 밝히더라도 해당 정보에 대한 책임은 인간에게 있다는 것이다.
AI가 준 정보가 올바른 내용인지 확인하는 AI 리터러시 능력을 가르치고 생활 속에서 익숙해 져야할 필요가 있다고 생각한다.
AI 결과에 대한 독립적인 검증 및 감사 등 체계도 갖출 필요가 있다
나중에는 가짜뉴스 처럼 가짜 AI정보가 사회적 문제가 될 수도 있겠다라는 생각이 들었다.
그래서, 초등학교때부터 AI 사용시 검증이 필요하다는 인식을 심어주고, 어떻게 사용하는 것이 올바른 방법인지 교육이 필요하다고 생각한다.
참고자료
‘AI 생성물’ 워터마크 표시 의무화…딥페이크 가짜뉴스 막는다
댓글
댓글 쓰기