인사이트콘텐츠

늘어가는 기업 AI 채용, 뒤따르는 윤리와 안전성 문제
K-디지털 트레이닝: 인사이트 콘텐츠

#AI윤리 #AI채용기업 #AI부트캠프


글 미리보기

1. AI 윤리: 인공지능 시대의 필수 조건
2. AI 윤리 문제, 어떤 사례가 있을까?
3. 기업들의 AI 면접 및 채용 활용 현황


출처: Unsplash

1. AI 윤리: 인공지능 시대의 필수 조건

전세계에 생성형 AI 열풍이 거세게 불고 있습니다. AI 활용도가 높아질수록 한편에서는 AI 윤리(AI ethics) 역시 중요한 문제로 함께 부상하고 있습니다. AI 이야기에 유독 ‘윤리’라는 단어가 자주 등장하는 이유는 AI가 다른 기술들과 달리 스스로 데이터를 학습해 결과를 도출하는 ‘자율성’을 지니고 때문입니다. AI가 지닌 자율성을 간과하면 편향, 오류 등으로 인해 결과의 안정성이 떨어질 수 있습니다. 장기적으로는 인간과 AI의 평화로운 공존도 어려울 수 있고요.

최근 AI 윤리를 강화해야 한다는 국제 사회의 목소리가 높아지고 있습니다. 2020년 1월 미국은 ‘AI 규제 가이드라인’을 만들었습니다. 2021년 11월 유네스코는 회원국 만장일치로 ‘AI 윤리 권고’를 채택 했습니다. 권고안은 건강한 AI 생태계 조성에 필요한 가치와 원칙을 제시하고 있습니다. 한국 과학기술정보통신부 역시 얼마전 MWC 2024 세션에서 AI를 안전하게 활용하기 위한 정책 방향을 발표하고 이를 뒷받침하는 ‘디지털 권리장전’을 소개했습니다.

AI 시대는 이제 막 시작하고 있습니다. 기술적으로는 엄청난 잠재력을 보유하고 있지만 윤리적으로는 아직 많은 한계를 지니고 있는데요. 오늘은 AI를 활용할 때 지켜야 하는 윤리는 무엇이 있는지 알아보겠습니다. 아울러 이러한 AI 윤리가 준수하지 않아서 문제가 된 사례도 소개해 드립니다. 다양한 이야기들을 통해 AI 기술과 윤리를 모두 다룰 수 있는 인사이트를 얻고 기업들이 원하는 AI 분야 인재로 성장해 보세요.

2. AI 윤리 문제, 어떤 사례가 있을까?

현재 우리가 직면한 인공지능(AI) 윤리 문제는 다음과 같습니다.

출처: OECD AI Policy Observatory

1) 악용방지 - 딥페이크

전세계는 요즘 딥페이크(deep fake)로 인해 몸살을 앓고 있습니다. 딥페이크는 AI를 활용한 일종의 얼굴 조합 기술인데요. 특정 인물의 얼굴이나 신체 부위가 합쳐진 이미지, 비디오, 오디오 등을 임의로 조합할 수 있습니다. 다만 가짜로 만들어진 딥페이크는 타인의 초상권을 침해하거나 큰 사회적 혼란을 야기하고 있습니다. 또한 성적, 정치적 콘텐츠 뿐만 아니라 금융사기에도 활용 되면서 문제가 되고 있습니다. 최근 세계 각국은 딥페이크 오남용 및 악용을 막기 위해 다양한 규제 방안을 마련 하고 있습니다.

출처: Unsplash

2) 인류가치보호 - 살상무기

AI는 군사 경계, 보안뿐만 아니라 전쟁터나 분쟁지역 무기에도 사용됩니다. 최근에는 특히 자율형 살상무기 시스템이 발전하면서 ‘킬러로봇이 인류를 죽이도록 할 수 없다’는 반대에 직면해 있습니다. 2018년에는 외국 로봇학자 50여명이 카이스트와의 공동연구를 보이콧 한 적도 있습니다. 당시 카이스트는 “인간 존엄성에 어긋나는 연구 활동을 수행하지 않을 것”이라고 해명했었죠. AI 군사무기는 점점 많아지고 있지만 윤리적 문제를 해결하기 위한 정책들은 제도적 으로도, 실제로도 여전히 진행형인 듯 합니다.

출처: 챗봇 ‘이루다’

3) 편향과 오류 개선 - 챗봇

AI의 학습과정은 인간의 개입을 최소화한 ‘블랙박스’라고도 부릅니다. 사람과 유사하게 또는 원하는 대로 답을 도출할 수 있지만 무엇을 근거로 결과가 나왔는지 알 수 없는 것을 말합니다. 즉 AI는 어떤 데이터를 학습하느냐에 따라 편향된 답을 내놓을 수 있습니다. 예를 들어볼까요? 어떤 실험에서 AI는 범죄 전과자의 얼굴 사진으로 재범률을 예측하고 흑인의 재범률이 백인에 비해 훨씬 더 높다고 추론했습니다. 그러나 이 결과는 여성, 장애인, 유색인종 등의 데이터가 상대적으로 부족한데서 오는 차별적 추론으로 밝혀졌습니다.

데이터 편향으로 인한 사회적 불평등 문제는 AI 챗봇에서 자주 발생합니다. 마이크로 소프트(MS)가 만든 챗봇 ‘테이’는 백인 우월주의 및 여성/무슬림 혐오 발언으로 인해 출시 하루 만에 서비스를 접었습니다. 스캐터랩이 만든 챗봇 ‘이루다’ 역시 소수자 혐오, 선정성 등으로 고초를 겪고 2022년 새로운 버전을 출시 하기도 했죠. 최근에는 AI의 결정 과정을 해석하려는 XAI(ExplAInable AI) 연구가 활발히 진행 중입니다.

출처: Unsplash

4) 개인정보보호 - AI 스피커, 비서앱 등

AI가 개인정보 및 생체정보를 수집한 점도 윤리적 문제 로 대두되고 있습니다. 특히 AI 스피커 업체들의 경우 정보보안과 관련해 검증을 받은 곳은 매우 적다고 알려져 논란이 되었습니다. 이용자가 자신의 음성이 저장되는 것을 거부할 권리를 알리는 ‘옵트아웃(Opt-out)’ 이행률도 부족했습니다. 요즘에는 AI 비서 등 사용자의 모든 정보를 실시간으로 제공하는 서비스 가 많아진 만큼 개인정보보호는 앞으로 더욱 중요한 AI 윤리가 될 전망입니다.

출처: Unsplash

5) 지적재산권보호 - 예술창작

인간의 고유 영역이라고 생각했던 창작 분야도 이제 AI가 함께 하고 있습니다. AI 창작물을 두고 크게 다음과 같은 두 가지 논의가 진행 중인데요. 첫째는 AI가 만든 창작물의 저작권을 인정할 것인가? 둘째는 AI가 다른 작품을 활용했다면 저작권 침해라고 볼 것인가? 입니다.

미국작가조합(WGA) 소속 작가들은 2023년 6월 “AI는 대본 창작 등 문학에 사용될 수 없고, 작가들의 작업물은 AI 학습 훈련에 쓰이면 안 된다”며 파업을 벌이기도 했습니다. 그런가 하면 얼마전에는 생성형 AI가 원작자 동의 없이 다른 작가의 그림을 학습했더라도 저작권 침해로 보기 어렵다는 판결 이 나오기도 했습니다. 창작물의 저작권은 경제적 이해 관계가 첨예하게 얽혀 있는 만큼 많은 사회적 논의가 필요한 AI 윤리로 보입니다.

디자인 소프트웨어 기업 어도비(Adobe)는 회사 자체적으로 윤리 원칙팀을 만들었습니다. 또한 어도비는 이미지 생성 AI 모델인 ‘파이어플라이(Firefly)’를 출시하면서 어도비가 보유한 이미지, 오픈 라이선스 콘텐츠, 저작권이 만료된 콘텐츠 등을 학습시켜 분쟁을 원천 차단했습니다. 편향된 결과물이 나오지 않도록 AI 윤리팀이 꾸준히 테스트하고 사용자 피드백도 수렴하고 있습니다. 자동으로 콘텐츠 자격증명을 첨부해 생성형 AI로 만든 콘텐츠임을 표시하도록 했습니다. 반대로 창작자가 자기 작품이 AI의 학습 데이터로 쓰이는 걸 원치 않을 경우 작품에 ‘학습 금지’ 자격 증명을 붙일 수도 있습니다.

출처: 이미지투데이

6) 트롤리 딜레마 극복 - 자율주행차

만약 자율주행차량을 몰던 중 사고가 났고 그 앞에 아이와 어른이 있다면, 또는 한 사람의 보행자와 여러 명의 보행자 무리가 앞에 있다면, 차는 어느 쪽으로 움직이도록 설계해야 할까요? 대부분은 비록 운전자가 다치더라도 길을 가던 행인을 다치지 않도록 설계해야 한다고 답합니다. 하지만 이러한 차를 구매하겠냐는 질문에는 대부분이 “사지 않겠다”라고 말하겠죠. 이렇듯 불가피한 상황에서 직관적으로 어떤걸 선택하는지 확인하는 사고실험을 트롤리 딜레마 라고 합니다. 트롤리 딜레마는 정답이 없는 윤리적 문제인 만큼, 자율주행차량을 설계하는 과정에는 앞으로도 더욱 정교한 논의가 필요할 것 같습니다.

3. 기업들의 AI 면접 및 채용 활용 현황

대기업과 공공기관을 시작으로 최근 많은 기업들이 채용 과정에서 AI를 활용한 면접 방식을 도입하고 있습니다. 관련 보고서에 따르면, 전세계 기업의 약 45%가 채용을 개선하기 위해 AI를 활용하고 있다고 밝혔습니다. 이러한 시장 규모는 약 200억 달러로 추정되며, 2028년까지 연평균 12%의 성장률을 보일 것으로 예상됩니다. 기업들은 주로 자기소개서 검정이나 작성자료 표절 검사 등에 AI 솔루션을 이용하는 것으로 알려졌습니다. 사전 면접 평가에서 미리 정보를 입력해 둔 대화형 AI 면접관을 활용하는 사례도 늘고 있습니다.

출처: Unsplash

취업준비생들 사이에선 AI 면접에 대한 불신이 적지 않습니다. 편향된 데이터로 학습한 AI는 편향된 데이터 기반으로 결과를 만들기 때문 이죠. 중국 i튜터그룹은 지난 2020년 강사 채용 과정에서 55세 이상의 여성과 60세 이상의 남성 지원자를 걸러내기 위해 온라인 채용 소프트웨어를 임의로 프로그래밍했다가 구직자들에게 합의금을 지불하라는 판결 을 받기도 했습니다. 또한 구체적인 심사 과정이나 내용 등을 지원자가 직접 확인하기 어려울 수 있습니다. 회사에 문의를 하면 “AI가 알아서 한 것이어서 잘 모른다”는 답변을 받을 때도 많았죠.

다행히도 최근 AI 채용 솔루션들은 마스킹을 이용하여 인적사항을 제외한 데이터를 AI 학습 데이터로 사용하고 있습니다. 데이터 라벨링 역시 인증된 작업자만이 진행할 수 있습니다. 개인정보보호법 개정에 따라 이제 지원자들은 AI의 면접 결과를 거부하거나 자세한 설명을 요구할 수 있게 됩니다. 이외에도 전문가들은 기업들에게 좋은 면접 영상 사례 등을 공유하는 워크숍을 개최해 AI 면접에 취약한 취업 지원자들을 돕길 권장 하고 있습니다.

이처럼 다양한 분야에서 AI의 영향력이 커지고 있습니다. 특히 생성형 AI에 대한 규범 마련이 필요하다는 목소리가 커지는 가운데 일부 기업들은 이미 선제적인 대응에 나섰습니다. 생성형 AI로 말미암은 피해가 생기지 않도록 기업 내부에 AI 윤리 조직을 신설하고 가이드라인을 마련하는 중입니다.

자신이 지원하고자 하는 회사가 어떤 AI 윤리 가이드라인을 지향하고 있는지도 사전에 미리 확인하길 권장합니다. 무엇보다 AI 분야 취업을 준비하고 있다면 내일배움카드 등을 활용해 패스트캠퍼스가 준비한 전문적인 AI 강의를 수강하는 것도 잊지 마세요. AI 기업 Upstage와 함께 AI 최신 실무 트렌드부터 현직자의 실시간 강의와 멘토링을 들을 수 있고, 자체 제작 경진대회 플랫폼(AI Stages) GPU도 무상으로 제공합니다. 산업을 주도하고 있는 많은 회사들에서 고도의 기술력과 윤리적 태도를 두루 갖춘 AI 인재를 기다리고 있다는 사실! 패스트캠퍼스와 함께 기업이 원하는 AI 인재로 거듭나는 건 어떨까요?


다른 인사이트가 더 궁금하다면

이 글과 연관된 주제의 추천 강의