▲ 최근  논란이 된 AI 챗봇 이루다 ⓒ 이루다 공식 SNS
▲ 최근 논란이 된 AI 챗봇 이루다 ⓒ 이루다 공식 SNS

방송통신위원회는 AI서비스가 제공되고 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록 윤리규범 등을 구체화할 계획이라고 14일 밝혔다.

최근 AI 채팅로봇의 혐오·차별적인 표현, 이용자의 성희롱성 발언 등이 사회적으로 논란이 됐다.

사업자·이용자·정부 등 지능정보사회 구성원 모두가 AI윤리의 중요성을 인지해야 한다는 목소리가 커지고 있다.

이에따라 방통위는 이용자 보호를 최우선으로 삼고 이용자 교육, 사업자 컨설팅, 제도개선 등을 추진할 계획이다.

방통위는 올해부터 이용자에게 서비스의 비판적 이해·주체적 활용에 대한 교육을 실시한다. 이용자가 AI서비스에 활용된 알고리즘의 편향성을 파악하고 문제를 최소화해 이용하도록 한다.

오는 2022년부터는 신규예산을 확보해 교육 대상을 사업자까지 확대하고 스타트업 등에 서비스 설계 시 AI역기능 등 위험관리 컨설팅을 지원하는 사업을 추진한다.

방통위는 AI서비스 이용자보호를 위한 규범과 제도도 구체화한다.

지난 2019년 11월 차별금지, 인간존엄성 보호 등의 내용을 담은 '이용자 중심의 지능정보사회를 위한 원칙'을 발표했다. 올해부터는 이를 실천하기 위한 사례와 방법 등을 사업자와 공유한다.

특히 사업자의 규제부담과 AI서비스의 혁신 저해를 최소화하기 위해 민간에서 실천하고 있는 모범사례를 바탕으로 실행지침을 마련할 예정이다.

이를 위해 방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고 9월부터 센터 내 법제 연구반을 운영하고 있다.

한상혁 위원장은 "AI서비스는 더 많은 부가가치를 창출하고 생활의 편의를 더해주지만 올바른 윤리와 규범이 없다면 이용자 차별과 사회 갈등을 초래할 수 있다"며 "기술의 혜택은 골고루 누리면서 부작용은 최소화할 수 있도록 노력하겠다"고 말했다. ⓒ 세이프타임즈

저작권자 © 누구나 안심하고 살 수 있는 세상을 만드는 언론 세이프타임즈 무단전재 및 재배포 금지