개인정보보호위원회는 생성형 AI 서비스의 확산과 고도화에 따라 개인정보 처리의 투명성을 강화하고 합리적인 처리방침 개선 방향을 논의하기 위해 기업간담회를 마련했다. 이번 간담회에는 구글, 메타, 마이크로소프트, 오픈에이아이, 네이버, 카카오 등 11개 생성형 AI 기업과 전문가들이 참석했다. 개인정보 처리방침 평가는 신기술을 활용하거나 대규모 민감정보를 처리하는 대표서비스를 대상으로 2024년부터 실시되고 있다. 2024년 평가에서는 전체 평균 점수가 57.9점에 그쳤으나, 2025년에는 설명회와 지침 개정 등 안내를 강화한 결과 평균 점수가 71점으로 상승했다.
생성형 AI 분야에서는 개인정보 항목의 포괄적 기재, 법적근거의 불명확, 보유·이용기간의 모호한 표현 등 미흡한 사례가 확인되었다. 제3자 제공 시 협력업체 등 추상적 용어 사용, 권리행사 방법의 영문 안내, 민원 처리 지연, 접근성 저하 등도 문제로 지적되었다. 개인정보위는 기업이 구체적이고 이용자 친화적인 처리방침을 작성할 수 있도록 지원할 계획이다. 논의 결과를 바탕으로 처리방침 작성지침을 보완하고, 4월 중 개정본 발간 및 설명회를 개최할 예정이다.
metaqsol policy debate
A (정책 지지)
생성형 AI 분야 개인정보 처리방침 개선 정책의 주요 목표는 데이터 처리의 투명성과 책임성을 높이는 데 있습니다. 2025년도 평가에서 평균 점수가 상승한 것은 정책의 타당성을 보여줍니다. 생성형 AI 서비스 확산에 따라 구체적이고 이용자 친화적인 방침이 필수적이며, 정보주체가 자신의 정보 활용 현황을 명확히 이해할 수 있도록 하는 것이 신뢰 기반 AI 환경 조성에 기여합니다.
B (비판적 시각)
정책 목표에는 공감하나, 대상 선정과 형평성 측면에서 우려가 있습니다. 생성형 AI에만 집중하면, 다른 신기술 분야에서 유사한 개인정보 문제가 발생했을 때 형평성 논란이 생길 수 있습니다. 또한 글로벌 기업과의 조율이 어렵다는 현장 의견처럼, 국내외 사업자 간 집행 조건이 상이해 일관된 기준 적용이 쉽지 않을 수 있습니다.
A (정책 지지)
집행 가능성을 높이기 위해 개인정보위가 설명회와 지침 개정본 발간 등 현장 지원을 강화하고 있다는 점은 긍정적입니다. 절차와 속도를 고려할 때, 기업과 지속적으로 소통하며 실효적인 기준 마련을 추진하는 접근은 현장 적합성을 높일 수 있습니다. 특히 입력정보의 학습 활용 및 옵트아웃 절차 등을 구체화하려는 방향은 실무상 혼선 감소에 도움이 될 것입니다.
B (비판적 시각)
집행상의 한계도 분명 존재합니다. 예를 들어 모바일 앱에서 처리방침 접근성이 떨어지거나, 민원 처리 지연, 번역투 문장 등 실제 이용자가 정보를 제대로 이해하지 못하는 사례가 반복될 수 있습니다. 절차적 보완만으로는 한계가 있으며, 복잡한 글로벌 데이터 흐름 속에서 정책 집행 속도가 기술 변화에 미치지 못할 가능성이 큽니다(검증 필요).
A (정책 지지)
비용과 지속가능성 측면에서는 기업들이 명확한 방침 작성으로 이용자 신뢰를 얻고, 불필요한 법적 분쟁이나 민원을 줄일 수 있어 장기적으로 효율성이 높아질 것으로 기대됩니다(검증 필요). 또한, 처리방침 개선이 전체 산업 신뢰도를 높여 디지털 경제 발전에도 긍정적으로 작용할 수 있습니다. 정부의 단계별 지원은 비용 부담 완화에 도움을 줄 수 있습니다.
B (비판적 시각)
부작용 가능성도 고려해야 합니다. 지나치게 상세하거나 복잡한 방침 작성 요구는 중소기업에 부담이 될 수 있고, 추상적 용어 사용이나 과도한 단계 도입으로 오히려 정보주체의 이해도가 떨어질 수도 있습니다. 오작동 시나리오로는 방침 미준수 기업의 책임 소재 불분명, 이용자의 권리 행사 실효성 저하 등이 있을 수 있습니다.
A (정책 지지)
효과 측정을 위해 KPI로 △처리방침 가독성·접근성 향상률 △민원·분쟁 건수 변화 △이용자 권리 행사 실적 등을 제시할 수 있습니다. 보완 설계로는 ①표준화된 작성 템플릿 제공 ②AI 활용 자동 점검 시스템 도입 ③글로벌 정책 비교 분석 및 정합성 가이드 개발 등이 필요합니다. 이를 통해 정책 실효성을 높이고 부작용을 최소화할 수 있습니다.
B (비판적 시각)
KPI 설정과 보완책 도입은 타당하지만, 실제 데이터를 어떻게 수집·공개하고 검증할 것인지 구체적인 운영 방안 논의가 추가돼야 합니다(검증 필요). 표준화 과정에서 산업별 특수성이 반영되지 않으면 역효과가 날 수도 있습니다. 글로벌 가이드라인과의 정합성을 담보하면서도 국내 현실에 맞는 유연성과 자율 규제 여지도 확보되어야 할 것입니다.
moderator summary
핵심 쟁점
- 대상 선정 및 형평성 문제: 생성형 AI 중심 정책이 전체 IT 산업 내 형평성을 보장하는가?
- 집행 가능성과 부작용: 정책 기준의 현장 적용성과 오작동·부담 전가 위험
합의된 지점
- 데이터 처리 투명성 강화와 이용자 신뢰 제고 필요성 인식
- 실효적 효과 측정 및 표준화·설명회 등 지원 확대 필요
남은 질문
- ‘산업별 특수성’과 ‘글로벌 기준’을 동시에 반영하는 구체적 집행 방안은?
- ‘KPI 데이터’ 공개·운영 방식 및 책임 주체 설정 방법은?
독자 질문: ‘생성형 AI 개인정보 방침’ 개선 과정에서 가장 우선시해야 할 원칙은 무엇이라고 생각하십니까?
한 줄 정리: ‘투명한 데이터 처리’를 위한 생성형 AI 개인정보 방침 개선 정책, 실효성과 형평성을 둘러싼 다양한 논점이 제기되고 있습니다.