개인정보보호위원회가 인공지능(AI) 기술의 개인정보 침해에 대응하기 위한 전담팀을 오는 10월 신설한다.
고학수 개인정보위원회 위원장은 3일 서울청사 브리핑을 통해 프라이버시 침해 위험은 최소화하면서도 기업이 AI 혁신에 필요한 데이터는 안전하게 활용할 수 있도록 AI 기술 정보 침해 대응을 강화하기 위해 'AI 시대 안전한 개인정보 활용 정책 방향'을 발표했다.
챗GPT가 등장한 이후 AI가 가져올 편리함에 대한 기대가 높아지고 있지만, 정보 주체가 예측하지 못한 방식으로 데이터가 처리되는 경우가 늘어나면서 개인정보 침해 가능성에 대한 우려의 목소리도 커지고 있기 때문이다.
개인정보위는 AI 관련 사항을 전담하는 원스톱 창구인 프라이버시팀을 10월 안에 신설한다. 이를 통해 AI 서비스 사업자에 사안별로 개인정보 법령해석을 지원하거나 규제 유예제도 적용을 검토하는 등 컨설팅을 제공한다.
개인정보위는 올해 안으로 사전 적정성 검토제도 도입하고 AI 개발·서비스 단계별 개인정보 처리기준을 구체적으로 세우기로 했다.
사전 적정성 검토제는 사업자가 요청하면 비즈니스 환경을 분석해 개인정보보호법 준수 방안을 마련하고, 사업자의 이행 결과에 대해서는 개인정보위가 적정하다고 판단했을 경우 과태료 부과 등 행정처분을 하지 않는 제도다.
그동안 AI 개발과 서비스를 위해 데이터 수집할 때 개인 정보처리 방법에 대해 별도의 기준이 없었다. 이에 현행 개인정보보호법 체계 아래 해석례·의결례·판례 등을 종합해 AI개발·서비스 기획-데이터 수집-AI 학습-서비스 제공 등 단계별로 개인정보 처리기준을 구체화한다.
AI 학습 단계에선 과학적 연구의 목적이라면 가명 처리해서 동의없이 AI 개발에 사용할 수 있다. 서비스 제공 단계에선 삭제·처리정지 등 정보 주체의 권리행사를 보장해야 한다.
개인정보위는 정책 방향을 실제 현장에서 적용하기 위해 민간 전문가들과 협력한다. 인공지능 기업, 개발자 등과 AI 프라이버시 민·관 정책 협의회를 오는 10월에 구성하고 추진 계획에 따라 분야별 AI 환경에서의 데이터 처리기준을 공동 발표한다.
가명·익명 처리 기술(PET) 개발을 활성화하고, AI의 위험 수준에 따라 차등으로 규제를 설계하기 위해 'AI 리스크 평가모델'도 마련한다.
고학수 위원장은 "AI에 있어서 무조건 제로 리스크를 추구하기보다 프라이버시 침해 최소화를 위한 실천적 노력을 하는 것이 중요하다는 인식 아래 AI 개인정보 규율체계를 확립하겠다"고 말했다.

