개인정보보호위원회가 AI 개발 전 과정에서 개인정보 보호법 적용의 불확실성을 해소하고, 기업과 기관의 자율적 법 준수 역량 높이기에 나섰다.

개인정보보호위원회는 지난 6일 서울 중구 정동 1928 아트센터에서 ‘생성형 인공지능과 프라이버시’ 오픈 세미나를 열고, 생성형 인공지능 서비스 개발·활용을 위한 개인정보 처리 기준을 담은 안내서를 11일 공개했다.

생성형 인공지능 개발·활용 단계별 고려 사항(사진=개인정보위 제공)

안내서는 생성형 AI 개발·활용 생애주기를 ▲목적 설정 ▲전략 수립 ▲학습 및 개발 ▲적용 및 관리 등 4단계로 구분하고, 각 단계별 필수 안전조치를 구체적으로 제시했다. 예를 들어 목적 설정 단계에서는 개발 목적 명확화와 개인정보 종류·출처별 적법 근거 마련을, 학습 및 개발 단계에서는 데이터 오염·탈옥 등 위험에 대비한 다층적 안전조치와 AI 에이전트 관리 방안을 포함했다.

또한 실제 AI 개발·활용 방식을 유형화해 각 유형별 법적 기준과 안전성 확보 기준을 제시했다. 적용 및 관리 단계에서는 정보주체 권리 보장과 CPO(개인정보보호책임자) 중심의 거버넌스 구축 방안을 강조했다.

개인정보위는 특히 의료·공공·금융 분야의 고품질 데이터가 생성형 AI 발전의 핵심 재료가 되는 만큼, 이러한 데이터 활용 과정에서의 프라이버시 침해 위험을 최소화해야 한다고 밝혔다. 이를 위해 사전실태점검, 규제샌드박스, 사전적정성 검토 등 기존 집행 경험을 토대로 법 해석 기준과 안전조치 기준을 마련했다.

고학수 개인정보위원장은 “명확한 안내서를 통해 실무 현장의 법적 불확실성을 줄이고, 생성형 인공지능 개발·활용에 개인정보 보호 관점을 체계적으로 반영할 수 있을 것”이라며 “프라이버시와 혁신이 공존할 수 있는 정책 기반을 지속적으로 마련하겠다”고 말했다.