헌법

사회보장 영역에서 인공지능 활용에 대한 헌법적 고찰*

홍석한 **
Seokhan Hong **
Author Information & Copyright
**전남대학교 법학전문대학원 교수, 법학박사
**Professor, Chonnam National University Law School

© Copyright 2023, The Law Research Institute, Kyungpook National University. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jan 03, 2023; Revised: Jan 25, 2023; Accepted: Jan 25, 2023

Published Online: Jan 31, 2023

국문초록

사회보장 영역에서 인공지능 활용은 주로 지원대상자 발굴을 통해 복지 사각지대를 해소하고, 부정수급을 예방, 탐지함으로써 재정의 누수를 방지하는데 중점이 있다. 인공지능의 긍정적인 효과는 그 특성상 일정한 대가를 수반할 수밖에 없다. 인공지능은 지능적 기능을 사용하여 대규모 데이터 세트를 신속하게 분석, 처리함으로써 학습과 추론을 통해 예측을 결과를 도출한다. 개인정보를 비롯한 사생활에 관한 자료나 정보의 규모에 비례하여 예측의 정확성도 높아진다. 이에 방대한 정보 처리를 허용하게 되어 그만큼 사생활 침해의 위험성이 증대하고, 데이터 세트의 편향성을 비롯한 데이터 품질의 문제도 제기된다. 현실에 존재하는 편향성이 그대로 반영되어 편견을 고착화할 수 있는 위험성도 있다. 또한 인공지능 자체에 내포된 불투명성은 이러한 문제에 대한 우려를 더 심화시키고 오류나 손해를 바로 잡는 것을 어렵게 만든다. 이러한 부정적 영향은 인간의 존엄성과 자율성 경시 가능성, 사생활 침해와 감시사회 도래의 위험성, 평등권 침해의 위험성으로 구체화된다.

이러한 위험성에 대응하기 위해서는 인공지능도 인간과 사회를 이롭게 할 때 비로소 가치가 있다는 인간중심적 사고를 전제로 하는 가운데 투명성을 확보하도록 하는 것이 중요하다. 이러한 토대는 헌법상 법치주의와 맥락을 같이 한다. 이에 사회보장 영역에 인공지능을 활용하는 경우에도 활용의 근거, 처리할 수 있는 데이터의 범위와 방법, 데이터 보유 기간 등에 대하여 좀 더 분명한 법적 근거를 갖춰야 한다. 그리고 사각지대나 부정수급 발생의 원인을 철저하게 분석하여 수급자격이나 사회보장급여의 수준, 중복·부당지급 가능성 등 제도 자체를 개선하고 사회적 인식의 변화를 도모하기 위한 노력이 우선되어야 한다. 인공지능 활용은 개인정보자기결정권이나 사생활의 비밀과 자유에 중대한 영향을 미친다. 이에 관련 입법은 처리할 수 있는 자료나 정보의 범위와 기간, 빈도 등과 관련하여 일정한 한계를 두는 등 기본권 제약을 최소화하기 위한 방안이 강구되어야 한다. 사후적인 감독과 실질적인 이의제기 가능성을 보장하기 위하여 관련된 정보의 공개와 통지, 접근이 쉬운 분쟁해결 절차 등도 마련되어야 한다.

Abstract

The use of artificial intelligence in the social security area is mainly focused on solving welfare blind spots by discovering support recipients and preventing financial leakage by preventing and detecting illegal supply and demand. The positive effects of artificial intelligence inevitably come with a certain price due to its nature. Artificial intelligence uses intelligent capabilities to rapidly analyze and process large data sets to make predictions through learning and reasoning. The accuracy of prediction increases in proportion to the scale of data or information about private life, including personal information. As a result, a large amount of information processing is allowed, which increases the risk of invasion of privacy, and raises issues of data quality including the bias of the data set. There is also a risk that the bias that exists in reality can be reflected as it is and the prejudice can be fixed. Also, the inherent opacity of artificial intelligence itself further exacerbates concerns about these issues and makes it difficult to correct errors or damages. These negative effects are embodied in the possibility of disregarding human dignity and autonomy, the risk of invasion of privacy and the advent of a surveillance society, and the risk of violating the right to equality.

In order to respond to these risks, it is important to ensure transparency while premising on the anthropocentric thinking that artificial intelligence is only valuable when it benefits humans and society. This foundation is in line with the constitutional rule of law. Therefore, even in the case of using artificial intelligence in the social security field, a clearer legal basis for the grounds for use, the range and method of data that can be processed, and the retention period of data must be established. In addition, efforts to improve the system itself, such as eligibility for benefits, the level of social security benefits, and the possibility of overlapping or unfair payments, by thoroughly analyzing the causes of blind spots or illegal receipts, and efforts to promote changes in social awareness should be prioritized. The use of artificial intelligence has a significant impact on the right to self-determination of personal information or the privacy and freedom of privacy. Relevant legislation should seek measures to minimize restrictions on fundamental rights, such as placing certain limits on the scope, period, and frequency of data or information that can be processed. In order to ensure follow-up supervision and the possibility of raising practical objections, related information disclosure and notification, and easily accessible dispute resolution procedures should also be in place.

Keywords: 인공지능; 헌법; 사회복지; 기본권; 사회보장급여법; 사회보장정보시스템
Keywords: Artificial Intelligence; Constitution; Social Welfare; Basic Rights; Act on the Use and Provision of Social Security Benefits and Search for Eligible Beneficiaries; Social Security Information System

Ⅰ. 들어가며

인공지능은 사회 모든 영역의 생산성과 효율성을 획기적으로 증대시키고 새로운 패러다임을 출현시킬 만능열쇠로 주목받고 있다. 다만, 계속 발전 중에 있는 기술이기 때문에 그 영향력을 충분히 예측하기는 어렵다. 그럼에도 불구하고 인공지능의 막대한 잠재력과 파급력에 대해서는 이견이 없는 것으로 보인다. 돌이킬 수 없는 피해가 분명히 예상되거나 인간에 의한 통제가 극도로 어려워질 수 있다면 애초에 특정한 기술 자체의 개발을 금지해야 할 수도 있다. 그러나 인공지능이 주도하는 미래 사회에 대한 예측은 일반적으로 기회와 위험을 동시에 보여준다. 규범적 대응에 세밀한 주의가 필요한 이유이다.

인공지능의 영향력에 대한 분석과 대응은 일반적 차원에서도 필요하지만 각 영역에 따른 고찰이 더 유효할 수 있다. 각 영역의 특성에 따라 기술이 활용될 수 있는 범위와 위험성의 정도가 다르기 때문이다. 한편, 사회보장 영역에 대한 인공지능의 영향에 대해서는 그동안 빅 데이터, 사물인터넷, 인공지능 등의 기술 발전에 따른 자동화, 로봇화가 노동시장에 미치게 될 효과, 이에 대한 사회보장 체제의 대응 방안이 많은 관심의 대상이 되어왔다. 이에 비하여, 사회보장 체제에 지능정보기술을 접목시킬 때 발생할 수 있는 문제점과 대응 방안은 큰 주목을 받지 못한 것으로 보인다.1) 이와 관련된 연구는 대체로 사회보장 영역에 인공지능 활용을 촉진해야 할 필요성에 집중하고 있다. 딥 러닝 기술을 진폐증이나 석면폐증 판정을 위한 보조수단으로 활용하기 위한 연구, 독거노인의 위급상황을 탐지하는데 활용하기 위한 연구 등이 진행된 바 있으며,2) 최근에는 복지 사각지대 대상자 발굴에 인공지능을 보다 효과적으로 활용하기 위한 연구가 집중적으로 이루어지고 있다.3) 이와 같이 인공지능의 적극적인 활용 방안에 중점이 있을 뿐이고, 사회보장 영역에서 인공지능 활용의 정당성이나 그 방법 내지 한계를 탐구하는 연구, 특히 규범적 관점의 연구는 찾아보기 어렵다.

이에 본 논문은 사회보장 영역에서 인공지능을 활용하고자 하는 주요 목적과 그에 따라 발생할 수 있는 위험성을 점검하고, 규범적 대응에 고려되어야 할 요소를 고찰한다. 인공지능 기술을 결합함으로써 사회보장 체제에 큰 변화가 초래될 것이다.4) 단순하게는 복지 현장에서 디지털 환경을 구축하고 상담과 교육, 요양, 치료 등 서비스 제공에 스마트기기를 활용하는 것에서부터 빅 데이터와 인공지능을 이용한 복지 수요 예측과 예산 배분, 맞춤형 급여 제공과 부정수급 자동 탐지 등에 이르기까지 지능정보사회에서 사회복지가 경험할 수 있는 변화의 폭은 매우 넓다. 이러한 변화에 따라 예상할 수 있는 긍정적 및 부정적 영향 가운데 후자의 예방에 초점을 두고, 헌법적 관점에서의 문제점과 규범적 대응 방향을 제시해보고자 한다.

Ⅱ. 사회보장 영역에서 인공지능 활용의 필요성

1. 복지 사각지대 발굴

사회보장 영역에서 인공지능 활용은 우선 복지의 사각지대를 찾아내 선제적으로 대응할 수 있다는 점에서 강조된다. 복지 사각지대를 찾아 보다 적극적으로 필요에 부합하는 복지 체제를 정립해야 할 필요성에 따라 국가는 사회복지 영역에 지능정보기술을 활용하는 것을 중요한 대안으로 떠올릴 수밖에 없다.5) 2014년 2월 이른바 ‘송파 세 모녀 사건’을 계기로 복지체제에 대한 문제 제기가 본격화하면서 복지 사각지대 해소가 사회보장의 주요 과제로 제기되었다.6) 이후 국회는 2014년 12월 9일 「국민기초생활 보장법」 개정안, 「긴급복지지원법」 개정안, 그리고 「사회보장급여의 이용·제공 및 수급권자 발굴에 관한 법률」(이하 “사회보장급여법”) 제정안을 의결함으로써 법제 개선을 위한 의지를 보여주었다. 복지 예산과 제도, 수급대상자의 규모도 지속적으로 증가되었으며, 「사회보장급여법」 제정 이후 동법상 사각지대 발굴을 위하여 정보를 공유할 수 있는 기관 등의 범위와 수집, 처리할 수 있는 정보의 종류도 지속해서 확대되어 왔다.7) 그럼에도 불구하고 사회적 소외계층이 생활고를 비관하여 비극적인 선택을 하는 사건이 반복되는 등 복지 사각지대 문제는 여전하다. 이에 인공지능을 활용하여 선제적으로 대응해야 한다는 주장이 힘을 얻고 있다.8)

복지 사각지대는 관련 사회보장급여의 종류나 원인에 따라 다양하게 정의될 수 있고, 연구의 목적과 방법에 따라서도 포괄적 또는 제한적으로 이해될 수 있다. 그동안 관련 연구는 주로 기초생활보장제도를 중심으로 논의되었으나 사회보험, 사회서비스 등에도 적용될 수 있다.9) 「사회보장급여법」은 “사각지대”라는 표현을 사용하면서도 이에 관한 명확한 정의는 생략하고 있다.10) 복지 사각지대를 수급자격과 수급 상태 및 정도를 기준으로 분류해보면, 수급자격이 없어서 비수급상태인 경우(A), 수급자격이 있지만 비수급상태인 경우(B), 수급자격이 있고 수급 상태이지만 그 수준이 불충분한 경우(C)로 구분할 수 있다.11) 이러한 구분에 따르면, B의 경우가 인공지능을 이용한 발굴의 필요성이 인정되는 집단에 속한다. 한편, 사각지대는 일반적으로 “특정 욕구를 가지고 있음에도 불구하고 관련 사회보장제도의 혜택을 받지 못하는 집단”을 지칭하고,12) 복지소외계층은 “사회보장의 사각지대라는 제도적 결함에 놓여있는 계층으로 명백한 사회복지 욕구가 존재함에도 불구하고 여러 가지 조건으로 인해 사회(보장)서비스의 혜택을 받지 못하여, 여전히 복지욕구가 미해결된 사람들”로 정의된다.13) 결국, B집단 중에서도 자발적 비수급상태가 아니라 수급자격이 인정되고 수급의지가 있지만 정보의 부족 등에 의하여 비자발적으로 비수급상태에 있는 경우에 비로소 발굴이 필요한 대상이 된다.

2. 부정수급 차단

사회보장 영역에서 정보통신기술은 기본적으로 사회보장급여의 부정수급을 차단하기 위한 목적으로 사용되기 시작하였다. 최근에는 여러 부처에서 주관하는 여러 사회복지제도가 복합적으로 시행되면서 수급 요건이 더 복잡해지고, 그만큼 중복수급 또는 부정수급의 가능성이 더 커졌다. 이에 사회복지제도를 효율적이고 목적에 부합하도록 운영하기 위해 즉각적으로 정보를 취득하여 부정수급을 차단해야 할 필요성이 제기된다.

다만, 부정수급에 대해서도 그 명확한 정의를 찾기는 어렵다.14) 「사회보장급여법」은 ‘수급자가 수급자격 변동에 따른 신고를 고의로 회피하거나 속임수 등의 부정한 방법으로 사회보장급여를 받거나 타인으로 하여금 사회보장급여를 받게 한 경우에 그 사회보장급여를 받거나 받게 한 자’를 부정수급자로 정의하면서 부정수급자로부터의 환수를 규정하고 있으며(제22조 제1항), 이와 별도로 수급권이 없는 자에 대한 사회보장급여 제공 또는 수급자격의 변경·중지로 인한 과잉지급분의 반환을 규정하고 있다(제22조 제2항).15). 이에 따르면, 부정수급은 수급자의 고의에 의한 경우로 한정된다. 하지만 넓은 의미에서 부정수급은 수급자의 부지나 착오, 담당자의 고의나 실수, 나아가 제도나 시스템 자체의 중복 또는 오류 때문에도 발생한다. 현재 부정수급의 사전차단, 사후관리 등은 사회보장정보시스템을 통한 정보 연계에 의하여 이루어지고 있다. 이에 대해 부정수급 차단을 강화하고 발생 가능한 오류를 최소화하기 위해서는 가능한 한 더 많은 정보를 수집·집적하고 이를 실시간으로 연계되도록 해야 한다고 평가하기도 한다.16) 인공지능은 부정수급 차단과 관련한 이러한 요구를 더 수월하게 충족시키고 담당자의 업무 부담이나 비용을 절감하기 위한 수단이 될 수 있다.

Ⅲ. 사회보장 영역의 정보화 및 인공지능 활용 추진 현황

1. 사회보장정보시스템의 구축과 활용

사회보장 영역의 정보화는 사회보장정보시스템을 기반으로 추진되고 있다. 사회보장정보시스템은 2010년 1월 개통된 사회복지통합관리망인 “행복이음” 시스템과 2013년 2월 개통된 “범정부” 사회보장정보시스템을 통칭한다. 행복이음 시스템은 “각종 사회복지 급여 및 서비스 지원 대상자의 자격과 이력에 관한 정보를 통합 관리하고, 지자체의 복지업무 처리를 지원하기 위해 기존 시·군·구별 새올행정시스템의 31개 업무 지원시스템 중 복지 분야를 분리하여 개인별 가구별 DB로 중앙에 통합 구축한 정보시스템”이다. 이에 비하여, 범정부 시스템은 “각 부처 및 정보 보유기관에서 제공하고 있는 복지사업정보와 지원 대상자의 자격 정보, 수급 이력 정보를 통합·관리하는 시스템”으로서 정부부처 및 관련 기관에서 사용된다.17)

사회보장 업무의 전자적 관리는 일차적으로 「사회보장기본법」에 근거하여 시행되고 있다. 동법은 제37조 제1항에서 국가와 지방자치단체가 사회보장과 관련된 업무를 수행하면서 국민의 편익을 증진시키고 업무의 효율성을 향상시키기 위하여 사회보장업무를 전자적으로 관리하도록 노력할 의무를 명시하여 사회보장업무 정보화에 관한 일반적 근거를 규정한다. 동조 제2항에서는 국가가 사회보장정보시스템 즉, 관계 중앙행정기관과 지방자치단체에서 시행하는 사회보장수급권자 선정 및 급여 관리 등에 관한 정보를 통합·연계하여 처리·기록 및 관리하는 시스템을 구축·운영할 수 있도록 근거를 명시하고 있으며, 특히 제37조에서 사회보장정보시스템의 구축·운영에 관한 사항을 규정한다.

이와 같은 사회보장기본법의 내용은 「사회보장급여법」에 의해 구체적으로 실현된다. 동법은 사회보장급여의 신청, 수급자격의 조사, 급여의 결정과 지급, 사후관리에 이르는 일련의 절차 및 방법 등에 관한 사항을 규정하고 있다. 특히, 중앙행정기관·지방자치단체 및 관련 공공기관 간 정보의 연계를 통하여 복지행정 업무를 전자적으로 지원하는 사회보장정보시스템의 원활한 운영을 뒷받침하기 위한 구체적 내용을 포함한다.

우선, 보장기관의 장은 사회보장급여를 필요로 하는 지원대상자를 발굴하기 위하여 관계 기관·법인·단체·시설의 장에게 소관 업무의 수행과 관련하여 취득한 정보의 공유, 현장조사 시 소속 직원의 동행 등 협조를 요청할 수 있다(제11조 제1항). 다음으로, 보건복지부장관은 제12조에 따라 매우 폭넓은 정보 처리 권한을 갖는다. 동조 제1항은 제1호부터 제9호까지 보장기관이 지원대상자 발굴 관련 업무를 효율적으로 수행하도록 지원하기 위하여 보건복지부장관이 사회보장정보시스템을 통해 처리할 수 있는 자료 또는 정보를 규정하고 있다.18) 그리고 제9호의 위임에 따라 「사회보장급여법 시행령」 제8조 제2항의 [별표 2]에 보건복지부장관이 처리할 수 있는 정보가 다시 구체화되어 있다. 이에 따르면, 국민연금법상 연금보험료를 3개월 이상 체납한 자의 가구정보, 자살이나 자해시도자의 가구정보, 생계급여와 의료급여의 수급자나 장애인의 텔레비전수상기 등록 정보, 장애인의 사용자 정보 등을 비롯하여 “그 밖에 지원대상자 발굴을 위하여 사회보장정보협의체의 협의를 거쳐 보건복지부장관이 정하는 정보”까지 포함되며, 그 유형만 총 37종에 달한다.

이밖에도 「사회보장급여법」은 제23조 제1항 제1호부터 제7호까지 보장기관이 수급권자의 선정 및 급여관리 등에 관한 업무를 효율적으로 수행할 수 있도록 보건복지부장관이 사회보장정보시스템을 통하여 처리할 수 있는 자료 또는 정보 즉, 사회보장정보를 규정하고 있다.19) 이러한 정보는 현재 수급자의 자격이 계속 유지되며, 급여가 적절하게 지급되고 있는지를 확인하기 위한 적정 급여 관리, 수급자 또는 비수급자를 대상으로 한 정보 제공, 복지 사각지대 고위험 대상자 및 위기 아동의 발굴 및 정보 제공, 그리고 복지정보통계시스템 지원을 위해 활용된다.20) 또한 보장기관의 장은 제5조부터 제22조까지에 따른 업무를 효율적으로 수행하기 위하여 사회보장정보시스템을 이용하거나 관할 업무시스템과 사회보장정보시스템을 연계하여 이용할 수 있고(제24조 제1항), 보건복지부장관은 사회서비스정보시스템을 구축·운영할 수 있다(제24조의2).

한편, 정부는 기존 사회보장정보시스템의 처리능력이 한계에 도달했다는 인식에 따라 2019년부터 사회보장정보시스템을 전면 재구축하는 차세대 사회보장정보시스템 개발에 착수하였다. 차세대 사회보장정보시스템 구축은 4년에 걸쳐 진행되는 사업으로 2021년 9월 6일 1차 개통에 이어 2022년 말 4차 개통까지 완료하는 것을 목표로 한다. 그 주요 내용은 아래 [표-1]과 같다.

[표-1]. 차세대 사회보장정보시스템 구축 사업의 주요 내용21)
대상 주요 내용
국민 ‘맞춤형 급여 안내(복지멤버십)’ 도입, ‘복지로’에 편의기능 도입, 온라인 신청대상 사업 확대, 신청 서식 간소화, 신청 창구 다변화
지방자치단체 대상자 선정 기준과 차이가 있는 경우 시스템이 자동으로 조사·판정, 수급자 대상 확인조사의 정밀성 강화로 환수 및 상계 업무 경감
사회서비스기관 정보의 통합·연계를 통해 민·관 기관 간의 협업 지원
기관운영에 필요한 업무 기능과 제공기관별 특화된 업무 기능 제공
공통 사회보장정보를 활용한 정책결정 및 연구 지원
최신 정보통신기술을 반영한 사용자 편의성 및 유연성 강화
Download Excel Table
2. 사회보장 영역의 인공지능 활용 현황

정보통신기술은 사회보장 영역에서도 널리 활용되어 왔다. 세계 각국은 효율성과 비용절감을 위하여 사회보장급여의 신청과 접수, 수급대상자 선별, 급여의 제공 및 관리 등을 전자적으로 수행해왔다.22) 지금은 인공지능과 빅 데이터 기술을 핵심으로 하는 지능정보사회가 도래하면서 새로운 기술을 사회보장 업무에 접목시키려는 움직임이 활발하다.23) 우리나라도 한국사회보장정보원에 의하여 사각지대 발굴과 부정수급 탐지에 인공지능이 활용되고 있다. 복지 사각지대 대상자 발굴을 위한 머신러닝 알고리즘 활용은 이미 2015년 12월 시범 운영을 시작으로 2016년 2월부터 진행되고 있다.24) 한국사회보장정보원 내외부 연계 시스템으로부터 수집되는 데이터를 머신러닝 알고리즘에 적용하여 위험확률을 계산하고 이를 기반으로 공공부조와 민간서비스가 필요한 대상자를 추출한 다음, 재차 필터링과 알고리즘을 이용해 발굴 대상자를 선정하고, 각 지방자치단체에 통지하여 담당자가 각 대상자의 지원 필요성을 구체적으로 확인하는 방식이다. 부정수급 탐지를 위한 인공지능 활용도 2020년 6월부터 진행되고 있다. 머신러닝 기반의 인공지능이 170개 이상의 데이터를 활용하여 분기당 1회(연 4회) 마다 사회서비스 바우처 부정수급을 예측함으로써 잠정적인 부정수급자를 탐지한다. 앞으로도 사회보장 영역에서 인공지능은 더 많은 데이터를 연계, 이용하여 복지 사각지대 발굴 및 지원뿐 아니라 맞춤형 복지서비스 제공, 부정수급 자동 사전차단 등 더 다양한 역할을 담당할 것으로 예상된다.

Ⅳ. 사회보장 영역에서 인공지능 활용의 법적 쟁점

1. 인공지능 활용의 양면성

어떤 기술이든 그 자체를 긍정적 또는 부정적으로 평가하기는 어렵다. 기술 활용에 따른 효과도 언제나 한 방향으로만 나타나지 않는다. 인공지능에 대해 장밋빛 미래만을 그리려고 하거나 지나친 회의론으로만 기우는 것 모두 경계해야 한다. 과학기술 혁신을 통한 국민경제의 발전은 국가의 헌법적 의무이다. 하지만 그 효과나 문제점에 대한 분석은 물론 기술 자체에 대한 충분한 이해도 갖추어지기 전에 기술의 활용이 선행되는 상황은 바람직하지 않다. 가능한 한 모든 안목과 지식, 판단력을 집중하여 기술의 영향력을 다각적으로 살피고, 기술 발전에 기대할 수 있는 긍정적인 효과를 최대화하는 한편 예측할 수 있는 부정적인 영향에 대응하기 위한 방안을 폭넓게 고민해야 한다. 사회보장 영역에 인공지능을 활용하는 문제도 마찬가지이다. 인공지능은 이미 사적 및 공적 생활 영역에서 널리 활용되고 있으며, 그 파급력이 상당할 것이라는 점은 분명하다. 이에 각 영역에 인공지능을 도입할 때 발생 가능한 부정적 가능성을 꼼꼼하게 짚어보고, 이를 반영하여 규범을 정립하려는 노력이 시급하다. 계속 발전하고 있는 기술의 영향력을 충분히 예측하기는 어렵다. 그러나 규범적 대응을 포기할 수는 없다. 이는 발생 가능한 문제에 대한 면밀하고 구체적인 분석을 전제로 한다. 아래에서는 사회보장 영역에 인공지능을 활용하는 경우 예측할 수 있는 위험성을 헌법상 기본권의 관점에서 다뤄본다.

2. 인간의 존엄성 및 자율성 경시 가능성

빅 데이터에 의해 권위를 갖춘 인공지능이 자신에게 필요한 것에 대해 자신보다 더 잘 이해할 것이라는 믿음, 결함이 있는 인간보다는 인공지능이 통찰력이 좋고, 정확한 선택을 할 것이라는 믿음이 커질수록 개인은 인공지능에 더 의존하게 될 것이다. 자동화된 의사결정시스템은 인간다운 생활, 인간의 존엄성 보장을 목표로 하는 사회보장과 관련하여 개인이 정작 자신의 상황이나 필요에 대해 고민하고 선택할 수 있는 기회를 축소시킨다. 극단적으로는 개인의 의사결정 기회가 데이터 기반의 알고리즘에 전적으로 위임될 수 있다. 인공지능이 개인의 소득, 직업, 성별, 연령, 거주지, 소비성향과 선호 등을 실시간 자동적으로 분석하여 가장 합리적이거나 당사자에게 가장 효과적인 사회보장 선택지를 도출하고, 그 예측이 그대로 집행될 수 있다. 이 경우 합리성과 효과성 판단에는 국가의 관점이 반영된다. 국가가 인공지능을 내세워 특정한 방향으로 사회보장제도를 유도하거나 하나의 결과만을 정당한 것으로 강제하는 상황도 생각해 볼 수 있다.

유사한 문제는 부정수급 탐지를 위한 인공지능 활용에서도 찾아볼 수 있다. 부정수급 탐지 기능은 인공지능의 예측력에 의존한다. 인공지능으로 하여금 부정수급 가능성을 평가하도록 하고 걸러진 대상자를 중점적으로 감시하도록 함으로써 효과적으로 부정수급을 차단할 수 있다. 그러나 개인을 자동적으로 평가하여 특정한 집단에 포함시키고 이러한 집단에 속해있다는 이유로 기계에 의한 강도 높은 감시대상이 되도록 하는 것은 매우 차별적이고 명예감을 훼손한다. 인공지능은 당해 개인의 특수성이나 개전의 의지 보다는 유사한 집단의 과거 행위와 경향성을 분석하여 예측을 하게 된다. 개인의 인격과 개성, 구체적인 사정에 대한 개별적 평가를 배제하고 불리한 처분이 가능한 집단으로 분류하는 것은 인간의 존엄이나 개성에 대한 존중과 거리가 있다.25) 이러한 선별이 특정한 거주지, 성별, 전력, 소비패턴 등 부정수급 가능성과 간접적인 연관성만을 갖는 자료나 정보에 대한 분석을 토대로 한 것이라면 문제의 심각성은 더욱 두드러진다.

사회복지 현장에서 발생하게 될 변화의 측면에서도 인공지능이 인간의 존엄성이나 자율성 증진에 미칠 수 있는 부정적 효과를 생각해볼 수 있다. 정보통신기술의 발달은 복지 담당자의 문서 업무가 축소되고 복지 이용자와의 소통이 증대할 것이라는 전망을 부추겼다. 그러나 이와 별개로 복지 담당자의 업무를 코드화 시스템에 종속되도록 하여 그 재량과 전문성을 축소시키고, 복지 이용자를 수치화된 정보로만 평가하도록 한다는 지적, 복지 담당자와 이용자의 위계를 심화시킨다는 문제 제기가 나타나고 있다. 사회보장 영역에 정보시스템을 도입함으로써 인본주의에 기반을 둔 사회복지의 가치를 후퇴시킨다는 평가이다.26) 사회보장 영역의 서비스 제공은 쉽게 정량화하거나 프로그래밍하기 어렵고 각각의 상황에 대한 인간의 판단에 의존해야 하는 성격이 강하다.27) 실수와 잘못이 있을 수 있지만 구체적인 현실에 부합하는 결과를 위해서는 유연한 대응이 필요하다. 사회보장 업무에서 인공지능이 차지하는 비중이 높아질수록 깊이 있는 소통과 창조적 사고에 기초한 비판적 성찰, 전향적인 대안 발견 의지는 더 위축될 수밖에 없다. 인공지능이 도출한 결과를 복지 담당자가 검토하여 달리 판단할 수 있는 재량을 인정하더라도 큰 차이를 바라기는 어렵다. 공무원이 오판의 위험을 감수하면서까지 인공지능과 다른 결정을 할 것이라는 기대는 다소 비현실적이다. 공무원에게 이러한 여지를 넓게 인정한다면 경험과 지식에 의존한 주관적 판단을 배제하고 효율적이고 객관적인 업무처리를 도모한다는 인공지능 시스템 도입의 취지와 배치된다.

3. 사생활 침해와 감시사회 도래의 위험

개인정보를 비롯한 사생활 침해의 문제는 정보통신기술의 발전과 함께 지속적으로 제기되어 온 것이지만 인공지능이 내포하는 방대한 정보처리 능력은 문제를 더욱 심각하게 만든다. 사회보장 영역에서도 마찬가지이다.

우선, 인공지능 활용의 실효성을 보장하기 위해서는 데이터 매칭을 위하여 매우 다양한 개인에 관한 데이터가 필요하다. 사회보장급여 수급자격과는 직접 관련이 없는 정보들도 처리대상이 되고, 본인이 아닌 가구원 전체의 삶이 프로파일링 될 수 있다. 부정수급 탐지를 위하여 수급자 전체에 대한 데이터 감시를 시행하는 데 대해서는 이는 일종의 유죄 추정을 전제로 한다는 비판도 가능하다.28) 복지 사각지대 발굴을 위한 인공지능 활용은 개인정보자기결정권 제한의 효과가 더 크다.29) 부정수급 탐지는 수급자를 대상으로, 개인정보처리 동의에 기초하여 할 수 있는 반면 사각지대 발굴은 사실상 전 국민을 대상으로 해야 하고, 민감한 정보까지도 포함되며, 가구 단위의 분석도 이루어지기 때문이다.30) 복지 사각지대를 해소한다는 목적으로 정부가 수집하여 활용하는 정보의 유형 및 종류와 각 공공기관 간에 연계되는 정보의 수는 실제로 계속해서 늘어나고 있다.

다음으로, 인공지능의 예측력을 강화하기 위해서는 여러 국가기관이 보유하고 있는 정보를 서로 연계하여 처리할 필요가 있다. 정밀한 데이터 매칭을 위해서는 민간 기관이나 기업이 보유하고 있는 개인정보를 연계하는 것도 필요할 수 있다. 사각지대 발굴이나 부정수급 탐지를 위하여 각 연계기관이 보유하고 있는 정보가 수시로 보건복지부에 제공될 수밖에 없다.31) 이러한 정보의 연계로 인하여 최초 정보수집의 목적과는 전혀 다른 목적으로 개인정보가 처리될 수 있는 여지가 확대된다. 반면, 정보주체에게는 일회성의 포괄적인 동의 권한만 주어지거나 연계되는 정보의 종류나 내용, 연계되고 있다는 사실에 대해 모를 수 있다.

과연 복지 사각지대나 부정수급이 단순히 발굴이나 탐지가 어렵기 때문에 발생하는 문제인지도 생각해보아야 한다. 복지 사각지대는 이를 명확하게 개념 정의하기도 어려울 뿐만 아니라 해당자가 사회보장 제도를 잘 알지 못하거나 신청주의의 한계 때문에 발생하기보다는 까다로운 수급자격에 기인하는 경우가 더 본질적이라고 해야 한다.32) 가난이나 무능력에 대한 사회적 낙인에 대한 두려움 내지 사회의 도움에 대한 거부 의지 등으로 인하여 자발적으로 수급권을 포기하는 경우도 충분히 있을 수 있다. 이러한 사정이라면 인공지능을 이용한 포괄적이고 상시적인 개인정보 처리가 복지 사각지대 해소라는 목적을 위하여 적합한 수단이라고 할 수 있는지 검토가 필요하다.33) 단전이나 단수, 건강보험료 체납, 자살 등이 반드시 숨겨진 빈곤을 원인으로 하는 것은 아니라는 점은34) 이들 정보의 활용과 관련하여 수단의 적합성에 대한 의심을 키운다.

스스로 사각지대에 머물기를 원하는 사람에 대해서는 더욱 그러하다. 부정수급 역시 수급자의 의도적인 기망뿐만 아니라 국가가 설계한 제도의 허점 때문에도 발생한다. 사회보장 급여의 종류를 불문하고 어떠한 급여든지 그 수급요건을 충족하며, 수급 의사도 있는데 정보의 부족 등으로 수급을 받지 못하는 사람이 있을 수 있다는 가능성, 사회보장 급여의 수급자는 누구나 부정수급이라는 의심을 받을 만하다는 관점에 의하여 과도하게 개인정보자기결정권이나 사생활의 비밀과 자유를 제한하는 것은 아닌지 고민해보아야 한다. 수급자격의 확대나 중복 급여의 방지, 정보의 정확성 제고 등 관련 제도의 정비를 도외시한 채 인공지능을 활용한 개인정보 처리에만 급급하는 경우에는 국가의 진정한 의도를 의심받고 사회적 통제를 꾀한다는 혐의에서 벗어나기 어려울 것이다.

4. 평등권 침해의 위험

차별금지와 평등권 보장에 대해 인공지능이 부정적인 영향을 미칠 가능성은 이미 많은 지적을 받아왔다. 사회보장 영역에서 인공지능을 활용하는 경우에도 동일한 문제가 적용된다. 인공지능이 다양한 정보의 상관관계를 분석함으로써 일정한 특성을 공유하는 집단을 사각지대 혹은 부정수급의 가능성이 높은 것으로 분류하면 그러한 집단에 속한 개인은 국가에 의한 보다 집중적인 관심의 대상이 된다. 이는 소득과 재산, 거주지, 성별, 연령 등 신상에 관한 정보뿐만 아니라 개인과 그 가족의 과거 행적에 근거해서도 일어난다. 한번 인공지능의 분석 결과 사각지대 혹은 부정수급의 위험이 높은 집단에 속하게 되면 이를 수정하기가 매우 어려워진다. 소위 가난하다는 이유로 개인정보자기결정권이나 사생활의 비밀과 자유에 대해 더 강한 제약이 가해질 수 있다.35)

차별에 합리적 이유가 있다면 정당화될 수 있다. 하지만 이러한 분류에 사용되는 자료나 정보 및 그 분석 방법이 사각지대나 부정수급을 추론하는데 적절한 관련성이 인정되어야 한다. 문제는 인공지능은 해당 사안과 직접적 관련성뿐만 아니라 간접적 관련성이 있는 데이터를 포함하여 포괄적으로 데이터를 활용할 때 비로소 유용하고 예측의 정확성을 인정할 수 있다는 점이다. 게다가 블랙박스와 유사한 인공지능의 특징 때문에 인공지능에 의한 예측평가가 이루어진 방법이나 결과가 도출된 이유를 파악하기가 매우 어렵다. 데이터 입력에 오류가 있는지, 그러한 오류가 결과에 영향을 미쳤는지, 어떻게 수정할 수 있는지도 알기 어려울 수 있다.36) 인공지능에 의한 집단 분류와 그 분류에 따른 서로 다른 처우가 자동적으로 이루어지는 경우라면 차별이 발생하였는지도 정확히 알기 어렵다.

각 사회보장급여의 종류에 따라 수급요건이 서로 다르고, 개인에 따라 수급 필요성이나 필요로 하는 급여의 종류, 급여 수급의 의지도 서로 다르다. 이러한 요건이나 필요, 의지에 대한 아무런 구분도 없이 단순히 사각지대 발굴이라는 광범위한 목적을 내세워 개인정보 기타 사생활에 관한 정보를 일률적으로 처리하는 것은 그 자체로 불합리한 차별일 수 있다. 본질적으로 다른 집단을 동일하게 처우하는 것으로 볼 수 있기 때문이다. 특히, 매우 민감한 개인정보를 포함하여 개인의 사생활에 관한 데이터를 포괄적이고 상시적으로, 인공지능 시스템을 통해 처리한다는 점은 불합리한 차별의 의심을 강화한다. 부정수급 탐지를 위한 경우에도 부정수급의 가능성이나 의심되는 상황이 있는지와 관계없이 수급자 전체를 동일하게 처우한다면 마찬가지다.

Ⅴ. 사회보장 영역의 인공지능 활용을 위한 규범적 대응 방안

1. 규범적 대응의 기본 방향

인공지능은 그 데이터 처리능력이나 학습을 통한 예측력으로 인하여 인간의 업무를 대체, 보완할 수 있는 범위를 넓히고, 그 효율성을 극대화한다. 그만큼 기본권에 대해서도 기존 정보통신기술과는 다른 차원의 영향을 미친다. 새로운 기술로서 인공지능에 대한 규범적 대응은 기술 및 프로그램의 개발과 활용을 촉진하는 한편, 발생할 수 있는 위험성을 가능한 한 넓게 검토하고 이를 차단, 최소화하는 것이어야 한다.

우선, 사회보장 영역에서도 인공지능의 일반적 위험성 평가와 특정한 활용 방식에 따른 위험성 평가가 면밀하게 이루어져야 한다. 그래야만 인공지능에 의해 대체 혹은 보완될 수 있는 업무와 그 범위, 국회가 정해야 할 기본적이고 본질적인 사항과 그렇지 않은 사항을 구분할 수 있다. 인공지능과 같은 고도의 지능정보기술은 변화의 속도가 빠르고 전문성이 강하기 때문에 국회의 적응 능력의 한계와 행정부에 의하여 신속하고 탄력적으로 대응해야 할 필요성이 강조된다.37) 그러나 이러한 특수성도 법치주의의 원리를 넘어설 수 없다. 유연한 대응이 필요하다는 이유로 규범적 근거를 갖추기에 앞서 기본권 제한을 수반하는 사업을 먼저 추진하고 사후적으로 근거를 보완하는 순서 바꾸기가 용인될 수는 없다.

다음으로, 관련 입법은 사회보장 영역의 특수성을 반영하는 가운데 기술적 효율성이라는 가치에 의해 법치주의와 과잉금지원칙을 비롯한 기본권 제한의 한계 원리가 가려지지 않도록 해야 한다. 규범은 기술적 가능성을 앞세우기보다는 인공지능도 결국 인간과 사회를 이롭게 할 때 비로소 가치가 있다는 인간중심적 사고, 헌법적 정당성을 갖춰야 한다. 인공지능에 의하여 혹은 인공지능을 활용함으로써 인간이 독자적인 인격체가 아니라 선별과 통제가 필요한 대상, 점수화를 통해 쉽게 예측 또는 조작될 수 있는 존재로 취급될 가능성이 확대되었다. 그만큼 인공지능의 활용에는 인간의 존엄성에 대한 깊은 성찰이 반영되어야 하고,38) 실질적 자유와 평등의 가치가 관철되어야 한다. 4차 산업혁명 시대에도 사회보장의 궁극적인 목적은 변하지 않는다.39) 이러한 본질이 기술적 효율성에 의해 잠식될 위험성이 커진 만큼 사회국가원리도 법치주의에 따른 한계를 준수하는 가운데 실현되어야만 한다는 점을 더욱 강조할 필요가 있다.40) 제도는 인간을 완전히 대체하는 것이 아니라 보완하는 것이어야 하고, 효율성 제고에만 매몰되지 않고 구성원 간 상호 신뢰와 사회적 연대를 반영해야 한다.41) 인공지능의 영향을 받는 개인에게 유효한 선택권, 통제권을 부여하고, 부당한 결과에 대한 수정과 권리구제 가능성을 열어두어야 한다.42) 제도 설계에 앞서 인공지능의 활용 범위와 방식이 폭넓은 사회적 논의와 이해관계의 조정을 통해 결정될 수 있도록 절차를 마련하는 것도 필요하다. 인공지능 활용에 따른 영향력을 충분히 예측하기 어려운 상황이라는 점에서 이러한 절차의 중요성은 배가된다.

2. 인공지능 활용을 위한 법적 근거의 구체화

앞서 살펴본 바와 같이 사회보장 업무의 전자적 관리와 이를 위한 사회보장정보시스템의 구축·운영은 「사회보장기본법」과 그 세부적인 실행방안과 절차를 규정한 「사회보장급여법」에 근거를 두고 있다. 이에 따라 여러 관계 기관 등이 소관 업무의 수행과 관련하여 취득한 정보가 연계, 공유되고, 사회보장정보시스템을 이용하여 전자적으로 자료 및 정보를 처리할 수 있다. 또한 사회서비스정보시스템에 의하여 사회서비스 제공기관의 업무를 전자화하고 업무 수행에 필요한 정보를 통합·연계하여 처리·기록 및 관리하며, 사회서비스정보시스템은 사회보장정보시스템과 연계하여 운영된다.

다만, 이미 사각지대 발굴과 사회보장지원금 부정수급 탐지를 위해 인공지능이 활용되고 있음에도 불구하고, 인공지능을 활용하여 사각지대 발굴이나 부정수급 탐지 등의 업무를 수행할 수 있는지에 대해서는 명시적인 규정이 없다. 「지능정보화 기본법」이 제14조 제1항에서 “국가기관등은 공공서비스의 지능정보화를 도모하고 국민 편익 증진 등을 위하여 행정, 보건, 사회복지, 교육, 문화, 환경, 교통, 물류, 과학기술, 재난안전, 치안, 국방, 에너지 등 소관 업무에 대한 지능정보화(이하 “공공지능정보화”라 한다)를 추진하여야 한다.”라고 규정하고 있다. 또한 전자정부법도 제18조의2 제1항에서 “행정기관등의 장은 인공지능 등의 기술을 활용하여 전자정부서비스를 제공할 수 있다.”라고 규정하고 있다. 하지만 이 조항에 근거하여 곧바로 사회보장정보시스템에 인공지능을 접목시키는 것이 가능하다고 할 수 있는지는 의문이다. 인공지능을 이용한 행정이 기본권에 미칠 수 있는 큰 영향에 비하여 이들 조항은 지나치게 추상적이고, 포괄적이다. 특정한 영역에서 인공지능을 활용할 수 있는 목적과 범위를 제시하고, 개인정보 침해 방지 등 위험성을 방지하기 위한 조치를 더 분명하게 제시하는 별도의 법적 근거가 마련될 필요가 있다.

3. 인공지능 활용을 위한 정보 이용의 정당성 확보

사회보장 영역의 인공지능 활용은 주로 사각지대를 발굴하여 이를 해소하고, 부정수급을 예방, 탐지하여 부당한 재정 낭비를 막기 위한 것이다. 이러한 목적은 정당하다고 할 수 있다. 다만, 개인의 사생활에 관한 자료와 정보를 광범위하게 수집하여 인공지능 시스템을 이용하여 처리하는 것이 목적 달성을 위한 적절하고 효율적인 수단인지 점검할 필요가 있다. 우선, 사각지대나 부정수급 발생의 원인을 따져보아야 한다. 과연 개인정보 이용이 부족하여 사각지대나 부정수급이 발생하는 것인지, 인공지능 시스템을 이용한 포괄적인 실시간 개인정보 처리를 통하여 궁극적으로 사각지대 해소와 부정수급 차단이라는 목적이 달성 가능한지의 문제이다.

복지 사각지대 유형 가운데 대부분은 대상자가 수급자격이 인정되지 않기 때문에 비수급상태에 있는 경우, 즉 제도의 기본적인 설계 자체가 사회보장의 필요가 있는 집단을 적절하게 포괄하지 못할 때 또는 대상자가 수급상태이지만 사회보장급여가 그 필요를 충족시키기 어려운 수준으로 제공될 때 발생한다. 또한 수급자격이 인정되지만 사회적 낙인이나 절차에 소요되는 비용에 대한 부담 등을 이유로 스스로 비수급상태에 머물고자 하는 경우에도 발굴이 사각지대 해소에 기여할 수 없다. 이러한 유형의 사각지대는 까다로운 수급자격을 완화하거나 보편적 복지를 확대하는 방안, 사회보장급여의 수준을 높이는 방안, 그리고 낙인의 문제나 신청주의에 따른 복잡한 절차의 문제를 수정하는 방안이 그 해소를 위한 수단으로서 적합성을 인정받을 수 있다. 결국, 수급자격이 인정되고 수급의 의지도 있지만 의도와 관계없이 비자발적인 비수급상태에 있으며, 발굴만 이루어지면 충분한 사회보장급여의 제공으로 사각지대 해소가 가능한 제도가 있는 경우라야 발굴의 적절성과 유효성이 인정된다. 이러한 요건이 모두 갖추어져 실제로 발굴에 따른 사각지대 해소에 성공한 사례를 다룬 통계 자료를 찾기는 어렵다. 하지만 적어도 다른 사각지대 유형과 비교할 때 위 조건에 부합하는 유형이 큰 비중을 차지한다고 보기는 어렵다.43) 또한 「사회보장급여법」이 시행된 2015년 7월 이후 복지 사각지대 해소를 위한 목적으로 이미 개인의 사생활에 관한 자료나 정보가 사회보장정보시스템에 의하여 매우 폭넓게 활용되어 왔다. 그럼에도 불구하고 사각지대가 여전히 해소되지 않고 있다면 문제의 원인을 계속해서 사생활에 관한 자료나 정보의 부족 또는 정보처리 자동화의 부족에서 찾는 것은 재고되어야 한다.

부정수급 탐지 목적의 인공지능 활용과 관련해서도 부정수급은 수급자의 고의나 과실 등에 의해서만 발생하는 것이 아니다. 그럼에도 불구하고 부정수급 탐지를 위한 부담을 수급자에게만 지우고, 수급자 전체를 부정수급 의심자로 간주한다는 점에서 유사한 문제 제기가 가능하다.

한편, 사각지대 발굴 또는 부정수급 탐지를 목적으로 연계, 이용하는 자료나 정보가 사각지대 또는 부정수급을 의심하는데 적절한 관련성이 있는지, 연계 및 이용이 적절한 정보인지도 검토가 필요하다. 예컨대, 현행 「사회보장급여법」 제12조 제1항과 동법 시행령 제8조 제2항에 따르면 단전, 단수, 단가스, 임대료나 관리비 체납, 범죄나 화재 피해, 자해 또는 자살 시도, 최근 1년간 요양급여를 실시한 기록이 없는 아동, 학교 밖 청소년인 아동, 맞춤형급여안내를 신청한 지원대상자의 소득·재산 및 가구원, 장애인, 세대주가 사망한 가구 등에 해당하면 관련 자료 또는 정보가 지원대상자 발굴을 위해 사회보장정보시스템을 통하여 처리될 수 있다. 하지만 이러한 예가 과연 사각지대를 추론할 수 있는 사유로 적절성을 인정받을 수 있는지 의심스러울 뿐만 아니라 극도로 민감한 정보로서 비밀유지 필요성이 매우 크고 연계, 이용을 금지해야 할 정보까지도 포함되어 있다.

위와 같은 관점에서 사각지대나 부정수급 발생의 원인을 철저하게 분석하고 수급자격이나 사회보장급여의 수준, 중복·부당 지급 가능성 등 제도 자체를 개선하기 위한 노력, 사회적 인식을 개선하고 관련 교육을 강화하기 위한 노력을 우선해야 한다. 더 중요하고 본질적인 문제의 원인을 외면한 채 인공지능 활용만을 추진한다면 사각지대 해소와 부정수급 차단을 명목으로 인공지능을 이용하여 감시체제를 강화하고 행정편의를 추구한다는 비판을 면하기 어려울 것이다. 이에 인공지능 활용을 위해 이용하는 정보는 가능한 한 사각지대나 부정수급을 추론하는데 적절한 관련성이 인정되는 정보, 연계 및 이용의 합리성이 인정될 수 있는 정보에 한정되어야 한다.

4. 기본권 제한 최소화

개인정보자기결정권과 사생활의 비밀과 자유 등 기본권 제한을 최소화하기 위한 노력도 필요하다.44) 이와 관련하여 현행법 하에서도 사각지대 발굴을 위하여 연계, 이용할 수 있는 정보의 종류가 지나치게 광범위하고 또 명확하지 않다는 점을 지적할 수 있다. 보장기관의 장이 지원대상자 발굴을 위하여 정보 공유를 요청할 수 있는 관계 기관·법인·단체·시설은 「사회보장급여법」 제11조 제1항 제1호부터 제8호, 동법 시행령 제7조 제1항 제1호부터 제5호에 규정되어 있다. 총 14개 기관이 명시되어 있지만 동법 시행령 제7조 제1항 제5호에 따라 그 밖에 사회보장정보협의체의 협의를 거쳐 보장기관의 장이 정하는 기관 등도 포함된다. 게다가 이러한 협조 요청에 따라 공유될 수 있는 정보는 이들 관계 기관·법인·단체·시설이 “소관 업무의 수행과 관련하여 취득한 정보”로 그 범위가 매우 넓고, 협조 요청을 통해 정보를 연계할 수 있는 기간이나 횟수에도 제한이 없다.

한편, 보건복지부장관이 지원대상자 발굴을 위해 사회보장정보시스템을 통하여 처리할 수 있는 자료와 정보는 「사회보장급여법」 제12조 제1항 제1호부터 제9호, 동법 시행령 제8조 제2항 [별표 2]에 규정되어 있다. 그런데 그 처리 대상 정보의 범위가 지나치게 넓다. 특히, 이미 상당히 많은 정보가 처리 대상으로 명시되어 있지만 [별표 2]의 제5호 카목에 따라 “그 밖에 지원대상자 발굴을 위하여 사회보장정보협의체의 협의를 거쳐 보건복지부장관이 정하는 정보”도 포함된다. 뿐만 아니라 대부분 “가구정보”를 대상으로 규정하고 있는데, 그 의미에 대해 단지 “가구정보는 주민등록전산정보·가족관계등록전산정보를 포함한다.”라고 할 뿐이어서(제12조 제1항 제1호) 그 의미도 불분명하다. 또한 처리 대상 정보에 대해 단순히 “아동과 관련된 정보”(동법 시행령 제8조 제2항 [별표 2] 제3호), “… 사람과 관련된 정보”(동법 시행령 제8조 제2항 [별표 2] 제4호) 등과 같이 규정하여 관련된 어떠한 정보가 해당되는지 범위가 분명하지 않다.

부정수급 탐지를 위하여 연계, 이용할 수 있는 정보에 관한 규정은 문제가 더 심각하다. 부정수급 탐지와 관련하여 「사회보장급여법」 제19조 제1항은 “보장기관의 장은 수급자에 대한 사회보장급여의 적정성을 확인하기 위하여 제7조제1항 각 호에 해당하는 정보를 조사할 수 있다.”라고 규정한다. 동법 제7조 제1항은 보장기관의 장이 사회보장급여 신청이 있는 경우 지원대상자와 그 부양의무자에 대하여 사회보장급여 수급자격을 확인하기 위하여 제공받아 조사하고 처리할 수 있는 자료 또는 정보를 제1호부터 제4호까지 규정하고 있다.45) 이와 관련하여, 우선, 「사회보장급여법」 제19조 제1항은 사회보장급여의 적정성 확인 업무를 보장기관의 장에게 부여하고 있는데 보건복지부장관이 사회보장정보시스템을 이용하여 부정수급 탐지를 수행할 수 있는 것인지 명확하지 않다. 동법 제19조의2는 보건복지부장관에게 부정한 사회보장급여 수급에 대해 보장기관이 효과적인 대책을 세울 수 있도록 3년마다 부정수급 실태조사를 실시할 의무를 부여하고 있다는 점을 고려하면 보건복지부장관이 직접 부정수급 탐지 업무를 수행하도록 한 것은 아니라는 해석이 가능하다.

다만, 「사회보장급여법」 제23조는 제1항 제1호부터 제7호에 보건복지부장관이 보장기관이 수급권자의 선정 및 급여관리 등에 관한 업무를 효율적으로 수행할 수 있도록 사회보장정보시스템을 통하여 처리할 수 있는 사회보장정보를 규정하고 있다. 또한 동조 제2항은 보건복지부장관이 사회보장정보를 처리하기 위하여도 “관계 중앙행정기관, 지방자치단체, 관계 기관·법인·단체·시설의 장”에게 필요한 자료 또는 정보를 요청할 수 있다고 규정하고 있다.46) 이에 「사회보장급여법」 제23조 제1항과 제2항을 보건복지부장관에 의한 부정수급 탐지의 근거로 해석할 여지는 있다. 그러나 이러한 해석을 인정하더라도 여전히 문제는 남는다. 「사회보장급여법」 제23조 제1항 제1호부터 제7호의 사회보장정보에는 개인정보를 비롯한 사생활에 관한 정보가 상당수 포함되어 있으며, 동조 제2항에 따라 보건복지부장관이 사회보장정보를 처리하기 위하여 필요한 자료 또는 정보를 요청할 수 있는 대상이 “관계 중앙행정기관, 지방자치단체, 관계 기관·법인·단체·시설의 장”이라고만 규정되어 사실상 아무런 제한이 없다. 이에 「사회보장급여법」 제23조 제1항과 제2항이 사각지대 발굴이나 부정수급 탐지를 위한 정보의 연계와 이용의 근거가 될 수 있다면 개인정보자기결정권이나 사생활의 비밀과 자유에 대한 제약의 정도는 더 강화되고, 명확성에 관한 문제도 한층 더 부각된다.

이러한 분석에 기초할 때 사회보장 영역에서 인공지능 활용은 무엇보다 목적에 필요한 범위에서 최소한의 개인정보만을 수집하고, 개인정보를 처리해야 한다는 「개인정보 보호법」상 개인정보 보호 원칙의 취지와 법치주의의 파생원칙으로서 명확성 원칙을 준수해야 한다. 인공지능에 의한 예측의 정확성은 활용하는 데이터에 비례한다. 하지만 사각지대 발굴률이나 부정수급 탐지율을 높이고 그 정확성을 향상시킨다는 목적만을 강조하면, 본인뿐만 아니라 가족이나 친구 등의 통장 거래나 통화 내역, 교통수단 이용이나 출입국 기록, 음주나 흡연 여부, 인터넷 게시판이나 소셜 네트워크 서비스(SNS)에서의 활동, 나아가 개인의 미세한 표정이나 걸음걸이, 심박수 등과 같은 생체 정보를 입력 데이터로 활용하여 프로파일링하는 것까지도 정당화될 수 있다. 개인의 사적인 영역이 실시간, 포괄적으로 국가에 의한 감시의 대상이 된다면 기본권의 본질적 내용을 침해한다고 해야 한다. 또한 인공지능을 이용한 정보처리가 실제 사각지대 해소나 부정수급 차단을 달성하는 비율이 매우 낮다면 이를 위해 국민 전체의, 민감정보를 포함하여 사생활에 관한 거의 모든 자료와 정보를, 처리 기한이나 빈도의 제약 없이, 인공지능 시스템을 이용하여 처리하는 것은 법익의 균형성 측면에서도 수긍하기 쉽지 않다.

이에 더해 먼저 사각지대나 부정수급 의심자로 분류하기 위해 연계, 이용할 수 있는 정보를 규정하여 이를 통해 의심자로 분류된 때에 비로소 더 많은 정보를 연계, 이용할 수 있도록 해야 한다. 그리고 정보를 처리할 수 있는 기간, 빈도 등과 관련하여 일정한 한계를 두고,47) 구체적 사안의 개별성과 특수성에 따라 서로 다른 기준이 적용되도록 해야 한다. 나아가 일반적인 전자적 업무처리에 의해서는 목적을 달성하기가 어려운 경우에만 인공지능을 활용하도록 하는 방안, 익명 또는 가명으로 처리하여도 개인정보 수집목적을 달성할 수 있는 경우에는 익명 또는 가명에 의하여 개인정보를 처리하도록 하는 방안,48) 처리 목적을 달성한 개인정보를 파기하도록 하는 방안 등도 고려되어야 한다.

5. 투명성 원칙의 구체화

인공지능의 특수성을 고려할 때 가장 우선적으로 강조되는 요소가 바로 투명성이다.49) 인공지능의 복잡성 또는 불투명성은 도출된 결과의 정당성이나 판단 근거를 점검하고, 이의가 있는 경우 문제를 제기하여 권리구제를 도모하는데 장애가 된다. 이에 인공지능 활용에 대한 감독이 가능하도록 당해 인공지능 시스템의 기능, 입력된 데이터 세트나 적용된 알고리즘 등과 관련된 정보를 기록 또는 공개하도록 해야 한다. 또한 개인에게 사각지대 발굴이나 부정수급 차단 등 특정한 목적을 위하여 인공지능 시스템에 의한 정보처리와 예측의 대상이 되었다는 사실 및 이와 관련된 적절한 정보를 이해하기 쉬운 방식으로 제공하고, 이의제기를 할 수 있는 기회를 보장해야 한다. 투명성을 절대적으로 관철하기는 어렵겠지만 인공지능 활용의 필요성이나 기본권에 미치는 위험성 등에 상응하는 투명성 조치를 최대한 반영해야 한다.

투명성은 인공지능 활용에 따라 발생할 수 있는 문제점에 대한 책임의 소재와 내용을 분명히 하기 위한 것이기도 하다. 담당자 교육을 통해 인공지능 활용에 관한 문제의식과 책임 의식을 갖도록 하고, 인공지능 활용으로 인하여 발생하는 피해에 대한 책임 관계를 명확하게 하는 것도 필요하다. 이밖에 활용되는 인공지능 시스템이 개인정보자기결정권을 비롯한 기본권에 미치는 영향을 주기적으로 평가하고, 잠재적인 위험 요소를 확인하여 기록 및 보고하도록 하는 조치, 그 위험성이 확인된 경우 방지 및 보완을 위하여 시스템의 수정 또는 운영 중단을 위한 대책을 취하고 이를 보고하도록 하는 조치, 법 위반 행위에 대한 제재 및 형사상 조치, 인공지능 시스템으로 인한 피해자 구제를 위한 이의제기, 원상회복 또는 손해배상을 위한 민사상 조치50) 등이 갖춰져야 한다.51)

Ⅵ. 결론

이상과 같이 사회보장 영역에 인공지능을 활용함으로써 기본권 보장에 미칠 수 있는 위험 요소를 정리하고, 규범적 대응 방안을 마련하는데 염두에 두어야 할 원칙과 내용을 살펴보았다.

사회보장 영역에서 인공지능 활용은 주로 지원대상자 발굴을 통해 복지 사각지대를 해소하고, 부정수급을 예방, 탐지함으로써 재정의 누수를 방지하는데 중점이 있다. 이와 관련된 업무는 기존의 정보통신기술을 활용함으로써도 효율적으로 수행되어 왔지만 인공지능은 효율성과 정확성을 극대화하고, 업무 부담을 더욱 감소시킬 것으로 기대된다. 그러나 이러한 긍정적인 효과는 인공지능의 특성상 일정한 대가를 수반할 수밖에 없다. 인공지능은 지능적 기능을 사용하여 대규모 데이터 세트를 신속하게 분석, 처리함으로써 학습과 추론을 통해 예측 결과를 도출한다. 개인정보를 비롯한 사생활에 관한 자료나 정보의 규모에 비례하여 예측의 정확성도 높아진다. 이에 방대한 정보처리를 허용하게 되어 그만큼 사생활 침해의 위험성이 증대하고, 데이터 세트의 편향성을 비롯한 데이터 품질의 문제도 제기된다. 현실에 존재하는 편향성이 그대로 반영되어 편견을 고착화할 수 있는 위험성도 있다. 또한 인공지능 자체에 내포된 불투명성은 이러한 문제에 대한 우려를 더 심화시키고 오류나 손해를 바로 잡는 것을 어렵게 만든다. 이러한 부정적 영향은 인간의 존엄성과 자율성 경시 가능성, 사생활 침해와 감시사회 도래의 위험성, 평등권 침해의 위험성으로 구체화된다.

이러한 위험성에 대응하기 위해서는 인공지능도 인간과 사회를 이롭게 할 때 비로소 가치가 있다는 인간중심적 사고를 전제로 하는 가운데 투명성을 확보하도록 하는 것이 중요하다. 이러한 토대는 헌법상 법치주의와 맥락을 같이 한다. 이에 사회보장 영역에 인공지능을 활용하는 경우에도 활용의 근거, 처리할 수 있는 데이터의 범위와 방법, 데이터 보유 기간 등에 대하여 좀 더 분명한 법적 근거를 갖춰야 한다. 그리고 사각지대나 부정수급 발생의 원인을 철저하게 분석하여 수급자격이나 사회보장급여의 수준, 중복·부당 지급 가능성 등 제도 자체를 개선하고 사회적 인식의 변화를 도모하기 위한 노력이 우선되어야 한다. 인공지능 활용은 개인정보자기결정권이나 사생활의 비밀과 자유에 중대한 영향을 미친다. 이에 관련 입법은 처리할 수 있는 자료나 정보의 범위와 기간, 빈도 등과 관련하여 일정한 한계를 두는 등 기본권 제약을 최소화하기 위한 방안이 강구되어야 한다. 사후적인 감독과 실질적인 이의제기 가능성을 보장하기 위하여 관련된 정보의 공개와 통지, 접근이 쉬운 분쟁 해결 절차 등도 마련되어야 한다.

인공지능 관련 기술은 빠른 속도로 계속 발전 중이기 때문에 그 명확한 의미와 활용 가능성을 충분히 이해하기 쉽지 않다. 그 활용에 따른 변화의 영향력과 궁극적인 효과를 예측하기는 더욱 어렵다. 다만, 인공지능은 혁명으로 일컬어질 만한 사회변화를 주도하는 기술이라는 점은 분명하다. 따라서 이를 어떠한 방향으로 규율하는가에 따라 우리는 전혀 다른 세상을 경험하게 될 것이다. 오랜 기간 일궈온 민주주의와 법치주의, 기본권 보장의 이념이 발전과 후퇴의 갈림길에 서 있다는 긴장감을 군걱정으로 여길 수 없다. 첨단과학기술 영역에서 기본권 보장의 관점만을 지나치게 강조하면 혁신과 창조적 변화를 저해할 수 있다. 그러나 인간이 아닌 기술을 중심에 두거나 효율성만을 강조하는 사고가 초래할 수 있는 위험이 더 크다고 해야 한다. 디스토피아적 관점의 상상력을 발휘할 필요는 없다고 하더라도 예상할 수 있는 기본권 침해의 위험성을 꼼꼼하게 짚어내고, 예방을 위한 규범적 대응 방안을 고찰하는 것을 소홀히 할 수 없다.

Notes

* 본 논문은 2022년 정보통신정책연구원이 수행한 “ICT기반 사회현안 해결방안 연구”의 일부 내용을 발췌·수정한 것이며, “2022년 3개 거점국립대학교 법학연구소(원) 공동학술대회”에서 발표한 것입니다.

1) Wim Van Lancker, “Automating the Welfare State: Consequences and Challenges for the Organisation of Solidarity”, in: Ine Van Hoyweghen·Valeria Pulignano·Gert Meyers(eds.), Shifting Solidarities: Trends and Developments in European Societies, 2020, p.166.

2) 이우식·박선미, 「인공지능 Deep Learning 기술을 활용한 복지사각지대 발굴 개념 연구」, 사회보장정보원, 2018, 21면 참조.

3) 김상용, “4차 산업혁명 기술에 의한 스마트 복지사회 구현”, 「사회과학리뷰」 제6권 제2호, K교육연구학회, 2021, 1∼19면; 김은하, “정보시스템을 활용한 복지 소외계층 발굴의 가능성과 한계”, 「한국사회보장학회 정기학술대회발표논문집」 2015권 2호, 한국사회보장학회, 2015, 489∼501면; 김은하, “사회보장정보시스템 정보의 정책 활용과 과제”, 「보건복지포럼」 제274호, 한국보건사회연구원, 2019, 49∼51면; 이우식·박선미, 위의 책, 47∼73면; 이우식·박선미·이인수, 「복지사각지대 대상자 발굴률 향상을 위한 인공지능시스템 활용 연구」, 사회보장정보원, 2019, 122∼124면; 이우식 외 4인, 「복지사각지대 발굴관리시스템 예측모형 개선 방안 연구」, 한국사회보장정보원, 2021, 191∼195면; 이우식 외 4인, 「차세대 복지사각지대 AI 보이스봇 정보화전략계획(ISP) 수립을 위한 기초연구」, 한국사회보장정보원, 2021, 19∼84면; 최현수·오미애, “4차 산업혁명에 대비한 보건복지 분야 데이터 주도 정책 추진 필요성과 방향”, 「보건복지포럼」 제250호, 한국보건사회연구원, 2017, 15∼28면 등.

4) 김철주, “4차 산업 혁명과 사회복지법제의 방향성 고찰”, 「사회법연구」 제35호, 한국사회법학회, 2018, 3면.

5) 빅데이터가 사회복지 사각지대 예방, 부정수급자 발견, 사회복지 전달체계와 예산의 효율성, 효과성 향상, 사회복지 서비스의 품질 향상에 기여할 것이라는 전망으로 김철주, 앞의 글, 17면.

6) 보건복지부, 2014년 12월 9일자 보도참고자료, “송파 세모녀법, 국회 본회의 통과” 참조.

7) 2017년 3월 21일 개정에서는 보건복지부장관이 사회보장정보시스템을 통하여 처리할 수 있는 정보에 일정한 개인신용정보를 포함하였고(제12조 제1항 제6호), 2018년 12월 11일 개정에서는 자살자가 발생한 가구 또는 자살시도자가 발생한 가구로서 대통령령으로 정하는 기준에 해당하는 가구를 사회보장급여 제공을 위한 발굴 대상에 포함하였다(제9조의2 제1항 제2호). 이후에도 2019년 12월 3일 개정에서 건강보험료를 6개월이 아니라 3개월 이상 체납한 사람의 가구정보로 처리대상 정보를 확대하였고(제12조 제1항 제3호), 2021년 7월 27일 개정에서는 보건복지부 장관이 사각지대 해소를 위하여 자료나 정보를 제공할 수 있는 기관에 시·도의 교육감을 포함시켰다(제12조 제4항).

8) 「사회보장급여법」은 제22조의2에서 사회보장급여 신청권자의 신청에 따른 맞춤형 급여 안내에 대해 규정하고 있는데 아래 살펴보는 바와 같이 보건복지부는 최근 개인의 소득·재산·인적 상황을 분석해 받을 수 있는 복지서비스를 선제적으로 알려주는 ‘맞춤형 급여 안내(복지멤버십)’ 제도를 전 국민을 대상으로 확대하는 시스템 개편을 완료하였다. 이러한 맞춤형 급여 안내는 사각지대 발굴의 발전된 형태라고 할 수 있다.

9) 김정현·한은희, “사회보장정보시스템을 활용한 노인복지 사각지대 발굴의 쟁점과 대안”, 「한국노인복지학회 2021년도 춘계학술대회 자료집」, 한국노인복지학회, 2021, 497면.

10) 이에 비하여 지원이 필요한 “제11조제1항 각 호에 해당하는 관계 기관·법인·단체·시설의 장에게 공유받은 정보와 제12조제1항 각 호의 자료 또는 정보의 처리 결과 보장기관의 장이 위기상황에 처하여 있다고 판단한 사람의 가구” 및 “자살자가 발생한 가구 또는 자살시도자가 발생한 가구로서 대통령령으로 정하는 기준에 해당하는 가구”를 “위기가구”로 규정하고 보장기관의 장에 대해 그 발굴을 위해 노력할 의무를 부과하고 있다(제9조의2).

11) 김은하, “정보시스템을 활용한 복지 소외계층 발굴의 가능성과 한계”, 「한국사회보장학회 정기학술대회발표논문집」 2015권 2호, 한국사회보장학회, 2015, 491∼493면.

12) 구인회·백학영, “사회보장의 사각지대: 실태와 영향요인”, 「사회보장연구」 제24권 제1호, 한국사회보장학회, 2008, 178면.

13) 최 균 외, 「복지소외계층 상시 발굴·지원 및 민간자원연계 방안연구」, 한국사회복지협의회, 2011, 12면.

14) 부정수급에 관한 국내외의 다양한 개념 정의에 대해서는 엄재성·정지운·임병인, “사회보장정보시스템의 복지급여 부정수급 차단 원리와 개선방안”, 「한국경제연구」 제39권 제4호, 한국경제연구학회, 2021, 117∼120면 참조.

15) 이에 비하여, 공공재정 부정청구 금지 및 부정이익 환수 등에 관한 법률은 “부정청구등”, “부정이익”, “부정수익자”와 같은 용어를 정의하면서(제2조 제6호, 제7호, 제8호) 부정청구등의 방지, 부정이익등의 환수, 부정수익자에 대한 제재를 규정하고 있다.

16) 사회보장정보시스템의 부정수급 차단 원리, 정보연계 방식을 활용한 차단 실태 및 시사점에 대해서는 엄재성·정지운·임병인, 앞의 글, 120∼132면 참조.

17) 한국사회보장정보원 홈페이지 참조.

18) 단전, 단수, 단가스 가구정보(제1호), 담당교원이 위기상황에 처하여 있다고 판단한 학생의 가구정보(제2호), 건강보험료를 3개월 이상 체납한 자의 가구정보(제3호), 「국민기초생활 보장법」 또는 「긴급복지지원법」에 따른 신청 또는 지원 중 탈락가구의 가구정보(제4호), 사회복지시설 입소 탈락자나 퇴소자 중 시설의 장이 위기상황에 처하여 있다고 판단한 사람의 가구정보(제5호), 보건복지부장관이 위기상황에 처하여 있다고 판단한 사람의 연체정보(대출금·신용카드대금·통신요금 등)로서 금융위원회 위원장과 협의하여 정하는 개인신용정보(제6호), 임대료를 3개월 이상 체납한 임차인의 가구정보(제7호), 관리비를 3개월 이상 체납한 입주자의 가구정보(제8호), 그 밖에 지원대상자의 발굴을 위하여 필요한 정보로서 대통령령으로 정하는 정보(제9호) 등이다.

19) 1. 근거 법령, 보장대상 및 내용, 예산 등 사회보장급여 현황에 관한 자료 또는 정보, 2. 제5조부터 제22조까지에 따른 상담, 신청, 조사 및 자격의 변동관리에 필요한 인적사항·소득·재산 등에 관한 자료 또는 정보, 3. 사회보장급여 수급이력에 관한 자료 또는 정보, 4. 제51조에 따라 보건복지부장관이 위임·위탁받은 업무를 수행하는 데 필요한 자료 또는 정보, 5. 사회보장정보와 관련된 법령 등에 따른 상담, 신청(제25조제3항에 따른 신청을 포함한다), 조사, 결정, 제공, 환수 등의 업무처리내역에 관한 자료 또는 정보, 6. 사회보장 관련 민간 법인·단체·시설의 사회보장급여 제공 현황 및 보조금 수급이력에 관한 자료 또는 정보, 7. 그 밖에 사회보장급여의 제공·관리 및 사회보장정보시스템 구축·운영에 필요한 정보로서 대통령령으로 정하는 자료 또는 정보

20) 사회보장정보시스템에서 활용되는 정보의 종류와 그 활용 현황에 대해서는 김은하, 앞의 글(“사회보장정보시스템 정보의 정책 활용과 과제”), 42∼48면 참조.

21) 보건복지부, 2021년 9월 3일자 보도자료, “차세대 사회보장정보시스템 1차 개통 [9.6. 오전 9시]”, 붙임1, 8∼9면 차세대 사회보장정보시스템 구축사업 개요의 주요 개편 사항 참조.

22) 김수영, “사회복지정보화의 윤리적 쟁점 -사회보장정보시스템을 통한 데이터감시를 중심으로-”, 「한국사회복지학」 제68권 제1호, 한국사회복지학회, 2016, 193면.

23) 덴마크, 네덜란드, 독일, 슬로베니아, 스웨덴, 스위스 등 유럽 각국에서 사회보장을 비롯한 공공행정에 인공지능 기술을 도입한 예에 대해서는 Fabio Chiusi·Sarah Fischer·Nicolas Kayser-Bril·Matthias Spielkamp(eds.), Automating Society Report 2020, AlgorithmWatch, 2020, pp.48∼286. (https://automatingsociety.algorithmwatch.org/)

24) 복지사각지대 발굴시스템에 관하여는 이우식·박선미·이인수, 앞의 책, 5면, 8면, 31면, 40면 등 참조.

25) 이형석·전정환, 앞의 글, 41면.

26) 김수영, 앞의 글, 194면 참조.

27) Michael Lipsky, Street-Level Bureaucracy: Dilemmas of the individual in public services, Russell Sage Foundation, 2010, p.161.

28) 김수영, 앞의 글, 205면.

29) 김수영, 앞의 글, 207면.

30) 앞서 살펴본 바와 같이 2022년 9월 6일 차세대 사회보장정보시스템 2차 개통에 의하여 복지서비스를 선제적으로 알려주는 ‘맞춤형 급여 안내(복지멤버십)’ 제도가 전 국민 대상으로 확대되고, 개인 단위의 위기 정보 분석을 가구원 전체에 대한 정보를 분석하는 가구 단위의 위기 정보 분석이 도입되었다.

31) 현재 위기가구 발굴을 위한 자료와 정보는 매 1개월 또는 2개월 단위로 보건복지부에 제공되고 있다. 이우식·박선미·이인수, 앞의 책, 41∼60면.

32) 2019년 4월 보건복지부가 차세대 사회보장정보시스템 도입 계획을 발표한 데 대해서는 사각지대 발굴을 명목으로 개인정보 처리 범위를 크게 넓혔음에도 불구하고 사각지대에 놓인 수급권자를 의미 있는 수준으로 확대하지 못한 만큼, 정부의 최우선적 과제는 차세대 사회보장정보시스템 도입이 아니라, 기초생활보장제도의 부양의무자기준을 폐지하고 수급자를 확대하는 것이라는 반대 목소리가 제기되었다. 월간 복지동향 편집부, [성명] 정부는 차세대 사회보장정보시스템 즉각 철회하라, 월간 복지동향 제247호, 참여연대사회복지위원회, 2019, 84∼86면.

33) 사각지대의 발굴이 목적이 될 수 없으며, 인공지능을 활용한 개인정보 처리의 궁극적인 목적은 사각지대의 해소라고 해야 한다.

34) 김수영, 앞의 글, 208면 참조.

35) 지원대상자 발굴을 위해 활용할 수 있는 개인정보를 금융과 신용에 관한 정보로 확대하는 「사회보장급여법」 개정에 대해서는 ‘사회복지가 필요할지 모른다’는 이유만으로 개인의 동의 절차도 없이 광범위한 개인정보를 처리하는 것은 중대한 인권침해라는 반대 목소리가 제기되기도 하였다. 부양의무자기준 폐지행동, [공동성명] 복지대상자는 개인정보 보호의 권리도 없는가? 정부의 「사회보장급여의 이용·제공 및 수급권자 발굴에 관한 법」 개악시도 반대한다!, 월간 복지동향 제222호, 참여연대사회복지위원회, 2017, 77∼78면.

36) 이형석·전정환, 앞의 글, 41∼42면.

37) Jack Maxwell, “Judicial Review and the Digital Welfare State in the UK and Australia”, 28 Journal of Social Security Law 94, Sweet & Maxwell, 2021, p.12.

38) Ad Hoc Committee on Artificial Intelligence(CAHAI), 앞의 글, pp.27∼31.

39) 노상헌, “제4차 산업혁명과 사회보장법의 과제”, 「산업관계연구」 제27권 제2호, 한국고용노사관계학회, 2017, 39면.

40) 성중탁, “제4차 산업혁명과 사회국가 실현 등에 대한 전망과 과제”, 「헌법학연구」 제27권 제1호, 한국헌법학회, 2021, 374∼376면.

41) 최현수, “차세대 사회보장정보시스템 구축을 통한 복지 패러다임 전환과 정보 인권”, 「월간 복지동향」 제251호, 참여연대사회복지위원회, 2019, 18면.

42) Wim Van Lancker, 앞의 글, p.168.

43) 이와 관련하여, 보건복지부가 발간한 2020년 보건복지백서에 따르면 2019년과 2020년 건강보험료 체납, 단전, 단수 등 빅 데이터를 활용하여 발견한 위기가구는 각각 66.3만 명과 109.8만 명이지만 이 가운데 복지급여와 서비스 등을 추가로 지원한 가구는 각각 22.8만 명과 44.2만 명으로 발굴 대비 지원 비율은 약 40%에 그치고 있다. 보건복지부, 「2020 보건복지백서」, 보건복지부, 2021, 27면.

44) 「개인정보 보호법」 제3조 제6항 참조.

45) 1. 인적사항 및 가족관계 확인에 관한 사항, 2. 소득·재산·근로능력 및 취업상태에 관한 사항, 3. 사회보장급여 수급이력에 관한 사항, 4. 그 밖에 수급권자를 선정하기 위하여 보장기관의 장이 필요하다고 인정하는 사항.

46) 이러한 제23조 제1항과 제2항을 보건복지부장관의 부정수급 탐지의 근거로 해석할 수도 있겠지만, 사각지대 발굴에 관한 제12조 제1항이나 맞춤형 급여 안내에 관한 제22조의2 제1항과 비교하여 보건복지부장관에 의한 직접적인 정보처리의 근거로서 명확하지 않은 측면이 있다.

47) “자동화된 전산시스템으로 정보를 보유·관리하는 경우, 정보에의 무단 접근, 정보결합, 정보전달, 공조에 의한 정보공유 등이 시공(時空)의 제한 없이 매우 손쉽게 일어날 위험성이 크다. 이러한 위험에 노출된다면 정보 보유 자체의 정당성마저 취약해질 수 있다. 따라서 이러한 방식으로 처리되는 정보의 범위는 가급적 최소한으로 축소되어야 하고, 또한 보유기관은 그러한 위험으로부터 개인정보를 보호하는 일정한 조치를 취할 의무가 있다(헌재 2005. 7. 21. 2003헌마282등).” 헌재 2014. 8. 28. 2011헌마28 등, 판례집 26-2상, 337, 364.

48) 「개인정보 보호법」 제3조 제7항 참조.

49) 인공지능에 대한 규범적 대응으로서 투명성의 의미와 내용에 대해서는 홍석한, “민주주의에 대한 인공지능의 위험과 규범적 대응 방안”, 「헌법학연구」 제28권 제1호, 한국헌법학회, 2022, 148∼151면 참조.

50) 인공지능과 관련한 민사책임 법리에 대해서는 고세일, “인공지능과 불법행위책임 법리”, 「법학연구」 제29권 제2호, 충남대학교 법학연구소, 2018, 85쪽 이하; 우승하·김제완, “인공지능 활용에 따른 법적 책임과 윤리에 관한 동향”, 「과학기술과 법」 제12권 제1호, 충북대학교 법학연구소, 2021, 119쪽 이하; 정진명, “인공지능에 대한 민사책임 법리”, 「재산법연구」 제34권 제4호, 한국재산법학회, 2018, 137쪽 이하; 장민선, 「인공지능(AI) 시대의 법적 쟁점에 관한 연구」, 한국법제연구원, 2018, 147∼160쪽 등 참조.

51) 이와 관련하여, 민주주의의 관점에서 알고리즘의 위협은 일차적으로 투명성과 정보공개의 확보에서 제거되어야 하고, 알고리즘에 의한 권리침해에 대한 이의제기, 권리보호방안 마련 등 전문적이고 상세한 입법작업이 준비되어야 한다는 지적으로 조소영, “인공지능과 민주주의”, 「공법연구」 제49집 제2호, 한국공법학회, 2020, 161면.

[참고문헌]
1. 국내문헌
[단행본]

1.

보건복지부,「2020 보건복지백서」, 보건복지부, 2021.

2.

이우식 외 4인,「복지사각지대 발굴관리시스템 예측모형 개선 방안 연구」, 한국사회보장정보원, 2021.

3.

이우식 외 4인,「차세대 복지사각지대 AI 보이스봇 정보화전략계획(ISP) 수립을 위한 기초연구」, 한국사회보장정보원, 2021.

4.

이우식·박선미,「인공지능 Deep Learning 기술을 활용한 복지사각지대 발굴 개념 연구」, 사회보장정보원, 2018.

5.

이우식·박선미·이인수,「복지사각지대 대상자 발굴률 향상을 위한 인공지능시스템 활용 연구」, 사회보장정보원, 2019.

6.

장민선,「인공지능(AI) 시대의 법적 쟁점에 관한 연구」, 한국법제연구원, 2018.

7.

최 균 외,「복지소외계층 상시 발굴·지원 및 민간자원연계 방안연구」, 한국사회복지협의회, 2011.

[학술논문]

8.

강신욱, “사회보장기본법 개정의 의의와 과제”,「보건복지포럼」제189호, 한국보건사회연구원, 2012.

9.

고세일, “인공지능과 불법행위책임 법리”,「법학연구」제29권 제2호, 충남대학교 법학연구소, 2018.

10.

구인회·백학영, 사회보장의 사각지대: 실태와 영향요인,「사회보장연구」제24권 제1호, 한국사회보장학회, 2008.

11.

김규리, “스탠포드 「AI 인덱스 2021」을 통해 본 AI 지표 조사의 변화 방향”,「IT & Future Strategy」제11호, 한국지능정보사회진흥원, 2021.

12.

김상용, “4차 산업혁명 기술에 의한 스마트 복지사회 구현”,「사회과학리뷰」제6권 제2호, K교육연구학회, 2021.

13.

김성용·정관영, “인공지능의 개인정보 자동화 처리가 야기하는 차별 문제에 관한 연구”, 「서울대학교 법학」제60권 제2호, 서울대학교 법학연구소, 2019.

14.

김수영, “사회복지정보화의 윤리적 쟁점 -사회보장정보시스템을 통한 데이터감시를 중심으로-”, 「한국사회복지학」 제68권 제1호, 한국사회복지학회, 2016.

15.

김은하, “사회보장정보시스템 정보의 정책 활용과 과제”,「보건복지포럼」제274호, 한국보건사회연구원, 2019.

16.

김은하, “정보시스템을 활용한 복지 소외계층 발굴의 가능성과 한계”,「한국사회보장학회 정기학술대회발표논문집」 2015권 2호, 한국사회보장학회, 2015.

17.

김정현·한은희, “사회보장정보시스템을 활용한 노인복지 사각지대 발굴의 쟁점과 대안”, 「한국노인복지학회 2021년도 춘계학술대회 자료집」, 한국노인복지학회, 2021.

18.

김중권, “인공지능(지능형) 시스템의 도입을 위한 법적 규율의 문제”,「공법학연구」제22권 제1호, 한국비교공법학회, 2021.

19.

김중권, “인공지능시대 알고크라시(Algocracy)에서의 민주적 정당화의 문제”,「법조」제69권 제5호, 법조협회, 2020.

20.

김중권, “행정에 인공지능시스템 도입의 공법적 문제점”,「법조」제69권 제2호, 법조협회, 2020.

21.

김철주, “4차 산업 혁명과 사회복지법제의 방향성 고찰”,「사회법연구」제35호, 한국사회법학회, 2018, 3면.

22.

남찬섭, “사회보장기본법의 변화를 통해 본 한국 복지국가의 전개과정”,「한국사회복지조사연구」제36권, 연세대학교 사회복지연구소, 2013.

23.

노상헌, “제4차 산업혁명과 사회보장법의 과제”,「산업관계연구」제27권 제2호, 한국고용노사관계학회, 2017.

24.

박도현, “인간 편향성과 인공지능의 교차”,「서울대학교 법학」제63권 제1호, 서울대학교 법학연구소, 2022.

25.

성중탁, “제4차 산업혁명과 사회국가 실현 등에 대한 전망과 과제”,「헌법학연구」제27권 제1호, 한국헌법학회, 2021.

26.

안상훈·신진호, “한국 복지국가의 전환기, 사회정책분야 법체계의 재구조화 -사회보장기본법전부개정의 의미와 과제-”, 한국사회복지학회 2012년도 추계공동학술대회 자료집, 한국사회복지학회, 2012.

27.

엄재성·정지운·임병인, “사회보장정보시스템의 복지급여 부정수급 차단 원리와 개선방안”,「한국경제연구」제39권 제4호, 한국경제연구학회, 2021.

28.

우승하·김제완, “인공지능 활용에 따른 법적 책임과 윤리에 관한 동향”,「과학기술과 법」제12권 제1호, 충북대학교 법학연구소, 2021.

29.

이준일, “인공지능과 헌법 -인공지능의 위험에 대한 헌법적 권리 차원의 대응-”,「헌법학연구」제28권 제2호, 한국헌법학회, 2022.

30.

이형석·전정환, “빅데이터를 기반으로 한 인공지능 예측력의 헌법적 쟁점에 관한 연구”,「법학논총」제28권 제1호, 조선대학교 법학연구원, 2021.

31.

정진명, “인공지능에 대한 민사책임 법리”,「재산법연구」제34권 제4호, 한국재산법학회, 2018.

32.

조소영, “인공지능과 민주주의”,「공법연구」제49집 제2호, 한국공법학회, 2020.

33.

최현수, “차세대 사회보장정보시스템 구축을 통한 복지 패러다임 전환과 정보 인권”,「월간 복지동향」제251호, 참여연대사회복지위원회, 2019.

34.

최현수·오미애, “4차 산업혁명에 대비한 보건복지 분야 데이터 주도 정책 추진 필요성과 방향”,「보건복지포럼」제250호, 한국보건사회연구원, 2017.

35.

한은희·최윤희, “아동보호분야의 위험예측모형 활용 현황 및 시사점”,「사회보장정보 이슈리포트」제22호, 한국사회보장정보원, 2020.

36.

함인선, “AI시대에서의 개인정보자기결정권의 재검토 -EU 개인정보보호법을 소재로 하여-”,「인권법평론」, 전남대학교 공익인권법센터, 2021.

37.

홍석한, “민주주의에 대한 인공지능의 위험과 규범적 대응 방안”,「헌법학연구」제28권 제1호, 한국헌법학회, 2022.

38.

홍석한, “유럽연합 ‘인공지능법안’의 주요 내용과 시사점”,「유럽헌법연구」제38호, 유럽헌법학회, 2022.

[기타자료]

39.

보건복지부, 2014년 12월 9일자 보도참고자료, “송파 세모녀법, 국회 본회의 통과” 참조.

40.

보건복지부 2019년 4월 3일자 보도자료 “포용적 차세대 사회보장정보시스템, 국민과 함께 만들어갑니다!”.

41.

보건복지부 2021년 9월 3일자 보도자료, “차세대 사회보장정보시스템 1차 개통 [9.6. 오전 9시]”.

42.

보건복지부 2022년 9월 6일자 보도자료, “차세대 사회보장정보시스템 개통[2차] -약자 복지 향상 및 국민 불편 해소 정보기술[IT] 기반 마련-”.

43.

부양의무자기준 폐지행동, [공동성명] 복지대상자는 개인정보 보호의 권리도 없는가? 정부의 「사회보장급여의 이용·제공 및 수급권자 발굴에 관한 법」 개악시도 반대한다!, 월간 복지동향 제222호, 참여연대사회복지위원회, 2017.

44.

월간 복지동향 편집부, [성명] 정부는 차세대 사회보장정보시스템 즉각 철회하라, 월간 복지동향 제247호, 참여연대사회복지위원회, 2019.

2. 해외문헌

45.

Ad Hoc Committee on Artificial Intelligence(CAHAI), Feasibility Study, Council of Europe, 2020. (https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da)

46.

Ad Hoc Expert Group(AHEG) for the preparation of a draft text of a recommendation on the ethics of artificial intelligence, First draft of the Recommendation on Ethics of Artificial Intelligence, UNESCO, 2020.

47.

Alexandra Chouldechova·Diana Benavides-Prado·Oleksandr Fialko·Rhema Vaithianathan, A case study of algorithm-assisted decision making in child maltreatment hotline screening decisions, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81, 2018. (http://proceedings.mlr.press/v81/chouldechova18a/chouldechova18a.pdf).

48.

Daniel Zhang·Saurabh Mishra·Erik Brynjolfsson·John Etchemendy·Deep Ganguli·Barbara Grosz·Terah Lyons·James Manyika·Juan Carlos Niebles·Michael Sellitto·Yoav Shoham·Jack Clark·Raymond Perrault, The AI Index 2021 Annual Report, AI Index Steering Committee, Human-Centered AI Institute, Stanford University, Stanford, CA, March 2021.

49.

Fabio Chiusi·Sarah Fischer·Nicolas Kayser-Bril·Matthias Spielkamp(eds.), Automating Society Report 2020, AlgorithmWatch, 2020. (https://automatingsociety.algorithmwatch.org/)

50.

Jack Maxwell, “Judicial Review and the Digital Welfare State in the UK and Australia”, 28 Journal of Social Security Law 94, Sweet & Maxwell, 2021.

51.

Karl Manheim·Lyric Kaplan, “Artificial Intelligence: Risks to Privacy and Democracy”, Yale Journal of Law & Technology Vol.21, Yale University, 2019.

52.

Michael Lipsky, Street-Level Bureaucracy: Dilemmas of the individual in public services, Russell Sage Foundation, 2010.

53.

OECD Recommendation of the Council on Artificial intelligence, OECD/ LEGAL/0449, 2019. (https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449)

54.

Paulo Savaget·Tulio Chiarini·Steve Evans, “Empowering political participation through artificial intelligence”, Science and Public Policy Vol.46 No.3, Oxford University Press, 2019.

55.

Steven Strogatz, One Giant Step for a Chess-Playing Machine, N.Y. TIMES (Dec. 26, 2018). (https://www.nytimes.com/2018/12/26/science/chess-artificial-intelligence.html)

56.

UNESCO, Steering AI and Advanced ICTs for Knowledge Societies: A Rights, Openness, Access, and Multi-stakeholder Perspective, UNESCO, 2019.

57.

Will Knight, The Dark Secret at the Heart of AI, MIT TECH. REV. (Apr. 11, 2017). (https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/)

58.

Wim Van Lancker, “Automating the Welfare State: Consequences and Challenges for the Organisation of Solidarity”, in: Ine Van Hoyweghen·Valeria Pulignano·Gert Meyers(eds.), Shifting Solidarities: Trends and Developments in European Societies, 2020.