기본 콘텐츠로 건너뛰기

라벨이 차분프라이버시인 게시물 표시

차등 정보보호 - 2. 재식별 위험의 정량적 접근

차등 정보보호 - 2. 재식별 위험의 정량적 접근 재식별 위험, 어떻게 측정할 수 있을까? 데이터가 공개될 때 우리가 느끼는 '왠지 모를 불안감’을 숫자로 측정할 수 있다면 어떨까요? 놀랍게도, 프라이버시 보호 기술은 그 막연한 불안감을 구체적인 '위험도’로 계산하고 관리하는 것을 목표로 합니다. 그 실마리는 ' 한 개인의 정보가 전체 결과에 미치는 영향 ’을 살펴보는 데 있습니다. 데이터베이스에 내 정보가 추가됨으로 인해 통계 결과가 크게 달라진다면, 역으로 그 결과를 통해 나를 특정하기 쉬워진다는 의미입니다. 반대로 내 정보가 추가되어도 결과에 거의 변화가 없다면, 나는 수많은 데이터 속에 안전하게 숨을 수 있습니다. 즉, 재식별 위험을 낮추려면 개인의 정보가 결과에 미치는 영향(차이)을 최소화해야 합니다. 상황 1: N명의 데이터베이스 → 통계 결과 A 상황 2: (N+1)명의 데이터베이스 (내 정보 추가) → 통계 결과 B (A와 차이가 큼) 이러한 결과의 차이를 통제할 수 있다면, 우리는 재식별 위험을 관리할 수 있게 됩니다. 그렇다면 구체적으로 어떻게 그 차이를 줄일 수 있을까요? 해결책: '그럴듯한 부인’을 위한 확률적 장치 "마리화나를 피운 적이 있습니까?"와 같이 매우 민감한 질문에 답변해야 하는 상황을 상상해 봅시다. 모든 사람이 진실만을 답한다면, 특정인의 답변은 곧 그의 민감한 정보가 됩니다. 이때 '차등 정보보호(Differential Privacy)'라는 개념이 해법을 제시합니다. 핵심은 답변에 의도적인 노이즈(noise), 즉 무작위성을 섞는 것입니다. 예를 들어, 응답자에게 다음과 같은 규칙을 따르도록 하는 것입니다. 동전을 던집니다. 앞면이 나오면 무조건 진실을 말합니다. 뒷면이 나오면 다시 동전을 던져서, 그 결과에 따라 “예” 또는 "아니오"로 답합니다. (진실과 무관하게) 이...

정보 보안 vs. PETs: 데이터를 '지키는' 기술과 '안전하게 활용하는' 기술

정보 보안 기술과 개인정보보호 강화 기술(PETs)은 데이터를 보호한다는 공통점을 갖지만, 목표와 범위, 핵심 기능에서 뚜렷한 차이를 보입니다. 정보 보안 기술이 외부의 위협으로부터 데이터라는 성을 지키는 '견고한 방패'라면, PETs는 성 안의 중요한 개인정보를 보호하면서도 안전하게 바깥과 교류(활용)할 수 있도록 길을 열어주는 '마법 열쇠'에 비유할 수 있습니다. 핵심 목표의 차이 가장 큰 차이는 기술이 추구하는 핵심 목표에 있습니다. 정보 보안 기술: 정보의 기밀성(Confidentiality), 무결성(Integrity), 가용성(Availability), 즉 '정보 보안의 3요소(CIA Triad)' 보장을 최우선으로 합니다. 허가되지 않은 접근을 막고, 데이터 위변조를 방지하며, 필요할 때 언제든 데이터에 접근할 수 있도록 시스템을 보호하는 데 초점을 맞춥니다. 개인정보보호 강화 기술 (PETs): 데이터를 적극적으로 활용하면서도 그 과정에서 특정 개인이 노출되지 않도록 '익명성'을 보장하고, 정보 주체가 자신의 데이터를 통제할 수 있는 '통제권'을 부여하는 것을 핵심 목표로 삼습니다. 이는 '데이터 활용 가치 극대화'와 '프라이버시 철저 보호'라는, 자칫 상충될 수 있는 두 마리 토끼를 모두 잡으려는 기술적 시도입니다. 범위 및 주요 기술 목표가 다른 만큼 기술의 범위와 적용되는 주요 기술에도 다음과 같은 차이가 있습니다. 정보 보안 기술 (Information Security Technologies) 주요 목표: 시스템 및 데이터의 기밀성, 무결성, 가용성 확보 보호 대상: 데이터가 저장된 시스템, 네트워크, 서버 등 조직의 '인프라' 전체 (개인정보는 보호해야 할 여러 정보 자산 중 하나로 간주) 핵심 기능: 접근 통제, 암호화, 위협 탐지 및 대응, 방화벽, 백신 기술 예시:   네트워크 보안 (방화벽, 침입 탐지 시스템...

차등 정보보호 - 5. 인접 데이터셋의 두 가지 주요 정의

차등 정보보호 - 5. 인접 데이터셋의 두 가지 주요 정의 차등 정보보호에서 인접 데이터셋(Adjacent Datasets)은 단 한 사람의 데이터만 다른 두 개의 데이터셋을 의미합니다. 이 개념은 "어떤 한 개인이 데이터셋에 포함되거나 포함되지 않더라도, 분석 결과가 거의 바뀌지 않아야 한다"는 차등 정보보호의 핵심 아이디어를 수학적으로 정의하는 기준이 됩니다. 인접 데이터셋의 두 가지 주요 정의 인접 데이터셋을 정의하는 방식에는 크게 두 가지가 있으며, 사용 사례에 따라 구분됩니다. 1. 비제한적 인접성 (Unbounded Adjacency) - 추가/삭제 가장 일반적인 정의입니다. 두 데이터셋 D1과 D2는 한 개의 레코드(데이터 행)를 추가하거나 삭제해서 서로를 만들 수 있을 때 '인접’하다고 말합니다. 수학적 표현: ∣D1ΔD2∣=1 여기서 Δ는 대칭차(Symmetric Difference)를 의미합니다. 즉, 한쪽에만 있고 다른 쪽에는 없는 원소의 개수가 1개라는 뜻입니다. 예시: 100명의 환자 데이터가 담긴 데이터셋 D1이 있다고 가정해 봅시다. D2: D1에서 특정 환자 A의 데이터를 삭제한 99명의 데이터셋 D3: D1에 새로운 환자 B의 데이터를 추가한 101명의 데이터셋 이때, (D1, D2)는 인접 데이터셋이고, (D1, D3)도 인접 데이터셋입니다. 이 정의는 데이터셋의 전체 크기가 바뀔 수 있는 전역 민감도(Global Sensitivity) 모델에서 주로 사용 됩니다. 2. 제한적 인접성 (Bounded Adjacency) - 대체 두 데이터셋의 크기(레코드 수)는 동일하지만, 단 하나의 레코드 내용만 다를 때 '인접’하다고 말합니다. 수학적 표현: 데이터셋 D1과 D2는 크기가 같고, 단 하나의 인덱스 i에서만 D1[i] ≠ D2[i]를 만족합니다. 예시: 100명의 설문조사 응답 데이터셋 D1이 있습니다. D2: D1에...

차등 정보보호 - 6. 질의 함수와 전역 민감도

"전역 민감도(Global Sensitivity)는 데이터셋 자체와는 무관하게, 오직 질의(query) 함수에 의해서만 결정된다"는 말의 의미를 차근차근 설명해 드리겠습니다. 1. 간단한 비유로 시작하기 학교 선생님이 학생들의 키를 조사한다고 상상해 봅시다. 선생님은 두 가지 질문(질의)을 할 수 있습니다. 질의 1: "우리 반 학생은 총 몇 명인가요?" (COUNT 질의) 질의 2: "우리 반 학생들의 키(cm)를 모두 더하면 얼마인가요?" (SUM 질의) 이때, '민감도'란 "학생 한 명이 전학을 오거나 갔을 때, 질문의 답이 얼마나 크게 변할 수 있는가?"를 의미합니다. 질의 1 (COUNT)의 경우: 학생 한 명이 추가되거나 빠지면, '총 학생 수'는 언제나 정확히 1만큼 변합니다. 우리 반에 어떤 학생들이 있는지, 그들의 키가 몇인지는 전혀 중요하지 않습니다. 이 질의의 민감도는 항상 1입니다. 질의 2 (SUM)의 경우: 학생 한 명이 추가된다고 상상해 봅시다. 만약 새로 온 학생의 키가 150cm라면 합계는 150만큼 변합니다. 만약 농구 선수처럼 키가 200cm인 학생이 온다면 합계는 200만큼 변합니다. 이 변화량은 '데이터셋에 추가될 수 있는 사람의 키 최댓값'에 따라 달라집니다. 만약 우리가 키의 범위를 0cm ~ 220cm로 제한한다면, 이 질의의 민감도는 최악의 경우(키가 220cm인 학생이 추가되는 경우) 220이 됩니다. 현재 학생들의 키가 몇인지 와는 상관없이, '키의 합계를 구한다'는 질의 자체가 가진 '최대 변동 가능성' 입니다. 이 비유에서 알 수 있듯이, 민감도는 '현재 데이터가 어떤가'가 아니라 '질의 자체가 가진 특성'에 의해 결정됩니다. 2. 전역 민감도의 정의와 핵심 아이디어 이제 조금 더 전문적으로 살펴보겠습니다. 이웃 데이터셋 (Neigh...

차등 정보보호 - 1. 재식별 위험: 보이지 않는 위협

데이터의 가치와 공개의 역설 데이터를 완벽하게 보호하는 가장 확실한 방법은 아무에게도 공개하지 않는 것입니다. 하지만 이는 데이터가 가진 무한한 잠재력을 사장시키는 것과 같습니다. 결국 데이터의 가치를 실현하기 위해 '공개'는 피할 수 없는 선택이며, 바로 그 순간 '재식별'이라는 피할 수 없는 위험이 뒤따릅니다. 이름이나 주민등록번호 같은 명백한 식별자를 제거하는 것만으로는 충분하지 않습니다. 언뜻 사소해 보이는 여러 정보가 조각 그림 맞추듯 결합되면, 결국 특정 개인을 가리키는 '재식별'의 화살이 될 수 있기 때문입니다. 이 위험이 얼마나 현실적인지, 구체적인 시나리오를 통해 살펴보겠습니다. 평범한 통계에 숨겨진 위험 어느 작은 마을에 1,000명이 살고 있습니다. 보건 당국이 이 마을의 희귀 질병 유병률을 조사해 '전체 주민의 1%가 환자'라는 통계를 발표했습니다. 1년 후, 10명의 새로운 이주민이 생긴 상태에서 다시 조사하니 유병률은 1.09%로 약간 올랐습니다. 여기까지는 지극히 평범한 공중 보건 데이터처럼 보입니다. 하지만 여기에 '지난 1년간 이사 온 사람은 10명뿐'이라는 인구 이동 데이터가 더해진다면 어떨까요? 순식간에 익명의 통계는 한 개인을 겨냥하는 날카로운 정보가 됩니다. 작년 환자 수: 1,000명 × 1% = 10명 올해 환자 수: (1,000명 + 10명) × 1.09% ≈ 11명 이 간단한 계산은 한 가지 사실을 암시합니다. 새로 늘어난 환자 1명은 새로 이사 온 10명 중 한 명일 가능성이 매우 높다는 것을 말입니다. 이처럼 개인을 직접 식별할 수 있는 정보가 전혀 없어도, 여러 데이터가 결합될 때 어떻게 특정인의 민감한 정보가 노출될 수 있는지를 명확히 보여줍니다. 이것이 바로 '재식별 공격'의 현실입니다.  차등 정보보호 - 1. 재식별 위험: 보이지 않는 위협 데이터를 완벽하게 보호하는 가장 확실...

차등 정보보호 - 4. 데이터 처리 방식 및 구현 모델에 따른 분류

데이터 처리 방식에 따른 분류 데이터에 직접 적용되어 프라이버시를 보장하는 핵심 알고리즘들입니다. 노이즈 추가 차등 정보보호에서 가장 보편적으로 사용되는 기법입니다. 핵심 원리는 데이터베이스에 대한 통계적 질의(Query)의 결과값 에 수학적으로 생성된 '노이즈(noise)'라고 불리는 무작위 숫자 를 더하여, 개별 데이터의 기여도를 모호하게 만드는 것입니다. 작동 원리 쿼리 실행 : 데이터 분석가가 데이터베이스에 쿼리(예: "30대 사용자들의 평균 소득은 얼마인가?")를 실행하면, 시스템은 먼저 실제 결과값을 계산합니다. 민감도(Sensitivity) 계산 : 쿼리 결과가 데이터베이스 내의 단 한 사람의 데이터 변화에 의해 얼마나 크게 변할 수 있는지를 측정합니다. 예를 들어, 한 사람의 데이터를 추가하거나 제거했을 때 평균 소득의 최댓값 변화가 '민감도'가 됩니다. 민감도가 높을수록 더 많은 노이즈가 필요합니다. 노이즈 생성 및 추가 : 계산된 민감도와 목표 프라이버시 수준(엡실론, ε)에 따라 노이즈의 크기가 결정됩니다. 이 노이즈를 실제 쿼리 결과에 더하여 최종 결과를 만듭니다. 대표적인 노이즈 메커니즘 라플라스 메커니즘 (Laplace Mechanism) : 평균, 합계, 개수 등 수치형 결과 를 반환하는 쿼리에 주로 사용됩니다. 민감도에 비례하는 라플라스 분포에서 추출된 노이즈를 추가합니다. 가우시안 메커니즘 (Gaussian Mechanism) : 라플라스 메커니즘과 유사하지만, 정규분포(가우시안 분포)에서 노이즈를 추출합니다. 여러 쿼리를 조합하거나 머신러닝 모델의 학습 파라미터를 보호하는 등 더 복잡한 분석에 적합합니다. 결론적으로, 노이즈 추가 기법은 분석 결과에 약간의 불확실성을 주입하여 "이 결과가 특정 개인의 정보 때문에 이렇게 나온 것"이라고 확신할 수 없게 만듦으로써 개인의 프라이버시를 보호합니다. 무작위 응답 주로 설문조사와 같이 사용자로부터 직접 데이터를 수집하는 ...