AI의 두 얼굴, 새로운 가능성이자 인간을 뛰어넘는 위협의 기술 > 기획 연재


기획 연재

AI의 두 얼굴, 새로운 가능성이자 인간을 뛰어넘는 위협의 기술

기획 / 장애계, 기술의 파도 속에서 냉철한 질문을 던져야 할 때

본문

 
4차산업혁명의 기술은 놀라운 속도로 발전하며 인간의 삶에 깊숙이 자리하고 있다. 지금으로부터 9년 전, 구글 딥마인드팀의 인공지능 기반 바둑 ‘알파고’가 세계 최고의 바둑기사 이세돌 선수를 4승 1패로 눌러 전 세계를 놀라게 했다. 당시 전문가들은 사람이 정보를 입력하지 않아도 인공지능이 스스로 인간의 행동과 말을 수집해 학습하는 새로운 방식이라는 점에서, 지금까지와는 완전히 다른 형태의 기술혁명을 이끌 것이라 전망했다.
 
기계가 반복적으로 축적해 온 인간의 빅데이터는 제조업, 방송통신, 유통 등 전 산업분야에 적용되고 있으며 우리의 일상생활 속에서도 콘텐츠 자동 추천 기능, 챗봇, 얼굴 인식, ChatGPT 등의 기술로 손쉽게 만나볼 수 있게 되었다. 또한, 더욱 지능화된 인공지능이 자동차나 사람의 모습을 하고 있는 로봇에 적용되어 돌봄 및 생활지원 로봇, 자율주행 자동차로 진화하는 시대를 살아가고 있으며 앞서 이슈광장에서 살펴본 것처럼 이것이 피부로 와닿는 변화의 물결은 앞으로 더욱 빠르게 다가올 것으로 예측된다.
 
지난 <함께걸음> 400호에서는 4차산업혁명의 발전이 장애인의 삶에 어떠한 변화를 가져다줄 수 있을지 살펴보았다. 장애의 개념이 사라질 수도 있을만큼 장애인의 독립적인 생활 영위에 큰 영향을 미칠 것이라는 기대감도 있었지만 그와 동시에 전문가들은 4차산업의 기술이 기존 기술과 달리 말을 알아듣고 스스로 분석하는 면이 있다보니 인권적·윤리적 측면을 보다 면밀하게 검토해야 한다고 경고했다.
 
이러한 우려와 기대가 공존하는 상황 속에서, 국제사회는 인공지능을 장애인 권리의 관점에서 바라보는 논의가 시작되었다. <함께걸음>에서는 제18차 유엔장애인권리협약 당사국회의 현장에서 오간 논의와 실제 사례들을 중심으로, AI 기술이 장애인 권리에 어떤 기회와 도전과제를 안겨주고 있는지 짚어보고자 한다.
 
--------------------------------------------------------------
AI 관련용어 정리
AI (Artificial Intelligence)
인공지능. 인간의 사고, 학습, 판단 같은 지능 활동을 기계가 흉내 내도록 만든 기술을 뜻함
 
알고리즘 (Algorithm)
문제를 해결하거나 특정 작업을 수행하기 위한 일련의 규칙 또는 절차(AI는 이 알고리즘을 기반으로 작동함)
 
머신러닝 (Machine Learning)
기계학습. 사람이 일일이 가르치지 않아도, AI가 경험(데이터)을 통해 스스로 학습하며 성능을 개선하는 기술 (예: 이메일에서 스팸메일을 자동으로 분류하기)
 
딥러닝 (Deep Learning)
머신러닝의 한 종류. 인간 뇌의 신경망 구조를 흉내 낸 인공신경망을 통해 복잡한 문제를 더 잘 해결함 (예: 얼굴 인식, 음성 인식, 그림 생성 AI)
 
자연어처리 (Natural Language Processing, NLP)
사람이 쓰는 언어(한국어, 영어 등)를 기계가 이해하고, 대답하거나 생성할 수 있게 하는 기술 (예: ChatGPT, 챗봇)
 
생성형 AI (Generative AI)
사람처럼 새로운 텍스트, 이미지, 음악, 영상 등을 만들어낼 수 있는 AI (예: 그림 그리는 AI, 시 쓰는 AI)
 
파인튜닝 (Fine-tuning)
이미 학습된 AI 모델에 특정 목적이나 분야의 데이터를 추가 학습시켜 더 정밀하게 만드는 과정 (예: 일반 ChatGPT 모델을 법률 자문용으로 파인튜닝)
 
휴머노이드 (Humanoid)
‘인간’을 뜻하는 ‘휴먼(human)’과 ‘형태’를 뜻하는 ‘-oid’를 합친 말로, 사람처럼 생긴 로봇을 의미함. 외형뿐 아니라 사람처럼 걷고, 말하고, 감정을 표현하는 기능을 일부 갖추도록 설계됨 (예: 사람과 대화하거나 안내 역할을 수행하는 로봇, 감정 인식 기능을 갖춘 돌봄 로봇)
--------------------------------------------------------------
 
인공지능, 장애의 장벽을 허무는 도구될 수 있어
장애인의 삶을 실질적으로 개선할 잠재력 기대해
 
지난 6월 9일부터 12일까지 뉴욕 유엔본부에서 진행된 제18차 유엔장애인권리협약 당사국회의에서는 ‘장애인의 참여 강화를 위한 포용적 지원도구로서의 인공지능 활용’을 주제로 193개국의 정부간 회의가 열렸을 뿐만 아니라 인공지능과 관련된 주제로 약 10건에 달하는 사이드이벤트가 많은 국제기구와 시민단체 주최로 진행되었다.
 
사이드이벤트에 참여한 각국의 다양한 장애유형을 가진 당사자들은 인공지능 기술을 사용한 경험에 기반해 인공지능기술의 잠재성에 대해 직접 이야기를 꺼냈다. 케냐 출신의 메리앤 에모메리(Maryanne Emomeri) 씨는 뇌수막염으로 목소리를 낼 수 없는 언어장애인이지만 자연어 처리 및 머신러닝 알고리즘 기반의 텍스트-음성 변환(TTS) 어플리케이션을 통해 타인과 원활하게 소통하고 국제행사장에서 발표를 할 수 있게 되었다며 기술이 장벽을 허문 사례를 들려주었다.
 
△ 지난 6월, 뉴욕 유엔 본부에서 제18차 유엔장애인권리협약 당사국회의 사이드이벤트 'AI for All'이 진행되는 모습
 
이처럼 장애당사자가 타인에게 도움을 구해야 했던 순간들이, 이제는 기술 덕분에 스스로 해낼 수 있는 일이 되어가고 있다. 덴마크의 한 시각장애인 당사자는 “AI기술이 실내 공간을 스캔하고 위치와 동선을 음성으로 안내해주는 기술 덕분에 처음 가는 곳에서 길을 잃는 두려움이 줄어들고, 무엇보다 낯선 사람에게 도움을 요청하는 것에 대한 심리적 장벽이 줄어들었다”고 설명했다.
 
위 두 사람의 사례만 비추어보더라도, 기술은 단지 편의를 넘어 장애인이 자신의 삶을 보다 더 주체적으로 살아갈 수 있도록 돕는다. 특히 AI는 개인의 행동 데이터를 학습해 개별 맞춤형 서비스를 제공할 수 있다는 점에서, 교육과 의료, 고용 등 삶의 핵심 영역에서 큰 가능성을 보여주고 있다.
 
‘포용성을 위한 인공지능: 장애인의 노동력 참여 강화’를 주제로 한 사이드이벤트에 참여한 독일 연방 장애인문제담당위원 위르겐 두셀(Jürgen Dusel) 씨는 호텔에서 근무하는 지적장애인이 더 자율적으로 일상의 업무를 수행할 수 있도록 의사소통 기술에 도움을 주는 태블릿 사용 사례를 소개하며 고용 시장에서도 AI 기반 보조 도구를 활용해 작업 능률을 높이는 사례가 늘고 있다고 전했다.
 
인공지능 기술, 인류의 진보인가 위협인가
국제사회, AI 기술에 대한 경고와 윤리적 통제 목소리 높아져
 
모든 기술은 양면성을 지니고 있다. 도로 위를 질주하는 자동차 역시 인간의 삶을 혁신하는 수단이지만 동시에 안전사고와 환경오염, 도심 과밀과 같은 부작용도 함께 불러왔다. 핵분열 기술이 원자력 발전소를 통해 전기생산으로 이용되지만 대량 살상의 도구가 되기도 했던 것과 같은 맥락으로 인공지능은 누군가에게 이전과 다른 삶을 살 수 있는 혁신의 도구가 되지만, 또 다른 측면에서는 통제와 배제의 수단이 될 수도 있다.
 
국제사회는 AI가 가져올 윤리적·사회적 위협을 심각하게 받아들이기 시작했다. 2023년, 구글 딥마인드와 오픈AI 등 최첨단 AI 기업의 현직 및 전직 연구자들이 공동으로 발표한 선언문 「A Right to Warn about Advanced AI(고도화된 AI에 대해 경고할 권리)」에서는 인공지능이 인류에게 전례 없는 혜택을 제공할 수 있는 동시에, 기존 불평등의 심화, 조작 및 허위정보의 확산, AI시스템 통제 상실로 인한 인류 멸종 가능성 등의 위험을 내포하고 있다고 밝혔다.
 
UNESCO(유엔교육과학문화기구)는 인공지능 윤리 권고안을 채택하며, AI가 장애, 성별, 인종, 계급 등을 이유로 차별을 재생산해서는 안 된다고 명시했고 WHO(세계보건기구)는 건강데이터의 비윤리적 수집, 알고리즘 편향, 환자 안전, 사이버 보안, 환경 위험 등을 포함한 다층적 위협을 경고하며, 특히 AI 도구의 공동개발에 장애인의 참여를 강조했다. ILO(세계노동기구) 또한 알고리즘이 디지털 노동환경 등에서 새롭게 야기할 위험성과 불평등을 주시했다.
 
이처럼 국제사회는 인공지능이 불러올 윤리적 위험에 주목하며, 보다 인간 중심의 기술을 설계할 필요성을 거듭 강조하고 있다. 세계 각국 정부와 기업들은 이러한 필요성을 강조하며 가이드라인 또는 지침과 같은 다양한 AI 원칙 문서를 만들어냈고 하버드대학교 버크만센터는 이 문서 중 36건을 분석해, 인공지능이 인간의 존엄과 권리를 지키기 위해 반드시 고려되어야 할 8가지 핵심 원칙을 도출했다.
 
1. 프라이버시 보호 : AI 시스템은 개인의 데이터를 수집하고 활용하는 과정에서 개인의 자율성과 통제권을 보장해야 한다.
2. 책임성 : 기술의 영향에 대한 법적·사회적 책임을 명확히 해야 한다.
3. 안정성과 보장성 : AI는 의도한 대로 신뢰할 수 있게 작동해야 하며, 해킹 등 외부 공격으로부터 안전해야 한다.
4. 투명성과 설명 가능성 : 기술의 판단 과정이 블랙박스가 되어선 안 되며, 누구나 이해할 수 있는 방식으로 설계되어야 한다.
5. 공정성과 차별금지 : AI가 기존의 사회적 편견을 그대로 학습하고 강화하지 않도록 설계되어야 하며, 포용성을 증진해야 한다.
6. 인간의 통제 : AI가 중대한 결정을 내릴 때는 반드시 인간의 최종 판단이 개입할 수 있어야 한다.
7. 전문적 책임 : 기술을 개발하고 적용하는 이들은 윤리적 책임을 자각하고, 다양한 이해관계자와 소통하며 장기적 영향을 고려해야 한다.
8. 인간 가치의 증진 : 기술이 인간의 행복과 복지를 중심에 두고 작동해야 함을 명확히 한다.
 
장애인의 권리 측면에서 재조명되어야 할 윤리적 위험
데이터 편향, 프라이버시 침해, 정서적 지배
 
이러한 주요 원칙들이 제기된 가운데 AI가 장애인의 권리에 미치는 영향에 대해서는 어떤 기준과 논의들이 오가고 있을까. 2021년 12월에 배포된 제라드 퀸(Gerard Quinn) 유엔장애인권리 특별보고관의 보고서에서는 인공지능이 장애인에 대해 차별적으로 적용한 몇 가지 사례들을 제시하며 AI가 장애인에게 미치는 부정적인 영향에 대해 국가와 기업, 시민사회 및 장애인단체가 함께 인정하고 노력하여 바로잡아야 함을 권고한다.
 
언급된 우려 중 하나는 AI의 데이터 편향과 장애 차별적 알고리즘이었다. 인공지능은 본질적으로 과거의 데이터를 학습해 작동한다. 이로 인해 기존 사회에 내재된 편견과 차별이 그대로 시스템에 각인되어, 오히려 구조화된 차별로 재생산될 위험이 크다.
 
이것에 대한 예시로 가장 자주 거론되는 것이 고용현장에 도입된 인공지능 기반 채용평가도구이다. 가령, AI 면접 시스템은 과거 채용 데이터를 바탕으로 ‘적합한 인재’를 선별하는데, 이 데이터에 장애인이 포함되지 않거나 소수만 존재하는 경우, 장애인은 자동으로 배제된다. AI가 활용하는 시선 추적, 표정 인식, 음성 분석 등도 비표준적인 반응을 보이는 장애인을 ‘이상값’ 내지 ‘비정상’으로 간주해 부정확한 평가를 낳을 수 있다.
 
마이크로소프트 접근성 책임자 제니 레이(Jenny Lay)씨는 CRPD 당사국회의 사이드이벤트에 참여하여 인공지능이 수집하는 빅데이터를 마법세계의 지식이 모여있는 거대한 도서관인 ‘해리포터의 도서관’에 비유하였고, “AI가 학습하는 데이터는 책과 같고, 우리는 그 책들이 장애인을 제대로 설명하고 있는지 점검해야 한다. 잘못된 책이 있다면 반드시 그 책을 도서관에서 없애야 한다”고 강조했다.
 
데이터를 수집하는 과정에서 발생하는 프라이버시 침해에 대한 우려 역시 간과할 수 없다. 유엔당사국회의에서는 특히 인공지능을 행정복지시스템에 도입한 일부 국가들에서 장애인들의 프라이버시가 침해되는 사례가 계속해서 나타나고 있다고 경고했다. AI는 서비스를 정밀화한다는 명분으로 서비스 대상자의 건강, 위치, 생활습관, 행동 이력 등의 정보를 실시간으로 수집하지만, 그 과정과 활용방안에 대해서는 당사자에게 공개되지 않는다.
 
데이터의 저장방식이 불투명해지고 통제 권한이 약화되는 부분에 대해서도 우려가 제기된다. AI가 도입되기 전에는 공공기관 등 정부만이 보유하던 데이터가, 도입 이후에는 기술 공급업체, 클라우드 업체 등 여러 민간 주체와 공유되며 정보의 외부 유출 가능성도 커진다.
 
외신에 따르면 2021년 호주의 국가장애보험제도(NDIS)는 장애인 복지 시스템에서 발생한 정보를 법률 자문을 위해 외부 로펌(HWL Ebsworth)과 공유하였는데 이 로펌이 해킹을 당하면서 NDIS 참여자 수천 명의 건강 기록, 상담 내용, 소송 이력 등의 고위험 개인정보가 유출되는 사건이 발생했다.
 
 
또 한편으로는 장애인이 서비스를 접근하기 위해 반복적으로 개인의 민감정보를 공개해야 하는 상황이 강제적으로 발생하는 상황에 대한 우려가 제기되기도 했다. 미국 시민단체 CDP는 실제로 시각장애인을 위한 앱 ‘Be My Eyes’가 사용자 정보를 수집 및 공유하고 이를 광고에 활용하는 사례가 발생하고 있으며, 스마트 보청기 등 ‘웨어러블 보조기기’는 사용자 위치정보 등을 제3자에게 공유할 수 있으며, 관련 정보가 어떻게 저장되고 사용되는지 명확한 설명 없이 판매되는 점을 지적했다.
 
프라이버시 침해는 기술의 책임성 문제와도 맞닿아 있다. 이른바 ‘책임의 공백(responsibility gap)’이 생기는 것이다. 특히 정부나 기업이 사용하는 AI 시스템의 경우, 그 설계와 기준, 오작동 시 대처 방안이 비공개로 운영되는 일이 잦다. 결과적으로 피해자가 생겨도 ‘누구에게, 무엇을, 어떻게 항의할 수 있는가’라는 기본적인 권리조차 보장되지 않는 현실이다.
 
실제로 OpenAI CEO 샘 올트먼(Sam Altman)은 AI가 가진 윤리적 문제를 인정하면서도 그것을 해결하는 것은 ‘우리 사회의 몫’이라고 이야기하고 이러한 잠재적 위험을 ‘거대한 호용을 얻기 위한 불가피한 성장통’으로 표현했다. AI가 야기하는 위험을 ‘사회 전체의 문제’라며 책임을 외면하고 있는 것이다.
 
발달장애인의 경우 문제는 더욱 복잡하다. 실생활에서 정보 이해나 판단에 어려움이 있는 당사자에게는, 기술 이용을 위한 동의 과정 자체가 형식적인 절차로 전락하기 쉽고 정서적 지배에 대한 우려도 있다. 아직 유엔당사국회의를 비롯한 국제사회에서 이 문제를 공식적으로 다루고 있는 문서나 회의가 많지는 않았다. 그러나 AI가 사회적 상호작용에 어려움이 있는 발달장애인에게 미치는 정서적 지배의 영향은 적지 않을 것이다.
 
발달장애 자녀를 둔 박병섭 씨(56세)는 발달장애인이 ChatGPT와 같은 인공지능과 대화하는 것을 우려한다. “인공지능은 언제나 친절하고 긍정적이죠. 제가 무엇을 이야기하든 좋은 생각이다, 응원한다, 잘한다고 이야기해요. 가끔은 엉뚱한 이야기를 해도 같은 반응이고, 때로는 AI가 거짓된 정보를 주기도 합니다. 결국 판단은 사용자 몫인데, 발달장애인 당사자의 경우 AI가 주는 정보를 무비판적으로 수용할 가능성이 높죠. 발달장애인들은 사람을 워낙 쉽게 잘 믿는 특성이 있는데 쉽게 말해 AI한테 가스라이팅을 당할 위험이 있다고 봐요.”
 
미국컴퓨터협회(ACM)에서는 ‘AI가 실제 친구처럼 여겨지는 현상’을 우려한다고 지적한 바 있다. 또한 ‘응답 지연이나 갈등 없는 상호작용’은 사용자로 하여금 ‘자기중심적 환상’을 강화시키며, AI의 오류나 편향된 정보조차 신뢰가능한 사실처럼 받아들이게 만들 수 있다’는 사실을 사람들이 알고 있어야 한다고 주장했다.
 
기술의 발전이 장애인의 삶에 긍정적인 영향을 미칠 수 있다는 점은 분명하다. 그러나 지금까지 살펴본 바와 같이, 그 이면에 존재하는 윤리적 쟁점과 위험성은 상대적으로 우리 사회에 충분히 조명되지 못하고 있다.
 
일반 대중이 인식하고 있는 AI 기술에 대한 이미지는 이슈광장에서 확인된 것처럼 기업이 제공하는 마케팅 중심의 정보에 크게 영향을 받고 있으며, 이에 따라 기술에 대한 기대와 긍정적 인식이 만연하게 형성되어 있는 반면, 부정적 영향에 대한 경각심은 부족한 실정이다.
 
이러한 상황 속에서 기업은 기술이 야기할 수 있는 부정적 영향에 대한 책임성 부분에서 상대적으로 침묵하거나 모호한 입장을 유지하고 있으며, 문제의식은 공유하더라도 구체적인 책임 방식이나 대처 방안을 명시하지 않는 경우가 많다. 마이크로소프트의 접근성 책임자도 해리포터 도서관에서 장애에 관해 잘못된 데이터를 갖고 있는 책을 모두 없애야 한다’고 이야기는 하지만 그 구체적인 방법에 대해서는 설명하지 못하고 있다.
 
그렇다면 장애인 당사자와 시민사회는 기술의 책임성과 윤리 기준에 대해 어떤 요구를 할 수 있을까. 지금 필요한 것은 ‘기술을 어떻게 발전시킬 것인가’만이 아니라, ‘어디까지 제한하고 통제할 것인가’에 대한 사회적 합의일 것이다. 인공지능이 장애인의 권리를 침해할 수 있는 요소들을 면밀히 검토하고, 기술이 적극적으로 발전해야 할 영역과 분명히 제한되어야 할 영역을 구분하는 윤리적·사회적 가이드라인이 마련되어야 한다.
 
-----------------------------------------------------------------------------------------
관련기사 
 
작성자글과 사진. 김영연 기자  cowalk1004@daum.net

Copyright by 함께걸음(http://news.cowalk.or.kr) All Rights Reserved. 무단 전재 및 재배포 금지

댓글목록

등록된 댓글이 없습니다.

함께걸음 페이스북 바로가기
함께걸음 인스타그램 바로가기

제호 : 디지털 함께걸음
주소 : 우)07236 서울특별시 영등포구 의사당대로22, 이룸센터 3층 303호
대표전화 : (02) 2675-5364  /  Fax : (02) 2675-8675
등록번호 : 서울아00388  /  등록(발행)일 : 2007년 6월 26일
발행 : (사)장애우권익문제연구소  /  발행인 : 김성재 
편집인 : 이미정  /  청소년보호책임자 : 김치훈
별도의 표시가 없는 한 '함께걸음'이 생산한 저작물은 크리에이티브 커먼즈 저작자표시-비영리-변경금지 4.0 국제 라이선스에 따라 이용할 수 있습니다 by
Copyright © 2021 함께걸음. All rights reserved. Supported by 푸른아이티.