AI 기술의 발전으로 인한 개인정보 유출과 같은 프라이버시 문제가 대두되는 가운데 개인정보보호위원회가 리스크를 줄이기 위한 모델을 발표했다.
개인정보위는 AI 기업이 자율적으로 프라이버시 리스크를 관리할 수 있도록 돕기 위해 19일 'AI 프라이버시 리스크 관리모델'을 공개했다.
이 모델은 AI 생애주기 전반에 걸쳐 프라이버시 리스크를 체계적으로 관리할 방향과 원칙을 담고 있다.
AI 기술의 발전으로 개인정보 유출, 딥페이크로 인한 인격권 침해 등 다양한 프라이버시 리스크가 문제가 됐었다.
개인정보위는 이러한 리스크를 관리하는 것이 정보 주체의 보호뿐만 아니라 신뢰할 수 있는 AI 기술의 지속 가능성을 확보하는 데 필수적이라고 강조했다.
발표된 리스크 관리모델은 AI의 데이터 처리 방식과 프라이버시 침해 위험을 체계적으로 이해하고 합리적인 대응 방안을 제시하도록 설계됐다.
특히 AI 생애주기에 따른 리스크 유형과 이를 경감하기 위한 구체적인 방안을 포함하고 있어 실효성이 높다.
개인정보위는 AI와 데이터 활용의 안전성을 높이기 위해 합성데이터의 생성과 활용을 다룬 '합성데이터 생성·활용 안내서'도 발간했다.
합성데이터는 원본데이터의 민감정보를 포함하지 않으면서도 데이터 활용성을 극대화할 수 있어 주목받는 기술이다.
안내서에는 △합성데이터 생성 시 개인정보 식별 가능성 감소 전처리 방식 △안전성·유용성 검증 지표 △단계별 활용 절차 등을 상세히 제시했다.
개인정보위는 앞으로도 AI 기술 발전과 글로벌 동향을 반영해 리스크 관리 모델을 지속적으로 업데이트할 계획이다.

