본문 바로가기

지방자치단체의
AI 기술 활용을 위한
법제도 개선방안

글: 최종석 솔리데오시스템즈

2022년 11월 우리가 알던 가장 유명한 알파고를 단숨에 뛰어넘는 새로운 생성형 AI(Generative AI) ChatGPT가 등장했다. 누구나 손쉽게 접근할 수 있는 AI로 빠른 시간 내에 우리의 주변에서 꽤 이름을 떨치고 있는 이 생성현 AI 플랫폼은 ChatGPT외에도 이미지 생성형 AI 미드저니(MidJourney), 컴퓨터 코딩 생성형 AI 코덱스(Codex), 달리(DALL-E), 딥마인드(DeepMind) 등과 같은 것들로 활용되고 있다.

새로운 기술, 우리 삶에 빠른 속도로 수용

AI(인공지능), ChatGPT, LLM(Large Language Model)과 같은 새로운 기술의 등장은 우리 삶에 빠른 속도로 수용되고 있다. 기능적으로는 우리가 대응해야 하는 상황에 대한 예측에서부터 새로운 결과를 만들어 내는 창조적 행위를 대체하고 있고, 커뮤니케이션의 관점에서 보면 대화와 신뢰의 대상에 이르기까지 지금까지 인간만의 영역으로 생각했던 한계를 넘어 영향력을 확대하고 있다. 또한 AI 기술의 발전은 인간들 간의 커뮤니케이션을 통해 만들어지던 새로운 것들을 간단한 기계 장치가 손쉽게 만들어 제공할 수 있도록 해 인간만이 할 수 있는 가치와 창조 활동이 퇴색할 수도 있다는 우려를 자아내고 있다.
근래 AI 기술의 성장 단계에서 우리는 AI가 보여주는 몇 가지 부정적 결과들을 경험하고 있다. 예를 들어 AI이 보유한 지식을 넘어서 과장되거나 엉뚱한 결과를 제시하기도 하고, 답변의 편향성 등 종종 기사를 통해 확인할 수 있다. 또한 AI 챗봇과의 대화를 통해 비정상적 유대감과 의존성의 형성으로 사용자가 자살에 이른 극단적인 사례를 접했을 뿐만 아니라, AI를 구축하기 위한 과정에서 학습데이터의 저작권과 관련한 문제 또한 제기되고 있다.

생성형 AI에서 나타난 법제도 이슈

많은 사람들이 알고 있듯이 AI는 나름의 편리와 혜택을 가져다주고 있지만, 이런 편리함과 함께 위험한 요소들이 존재하고 있고, 이를 사회적인 법과 제도를 통해 규범적 방향의 상태를 확보하기 위한 많은 논의들이 이루어지고 있다.
ChatGPT와 같은 생성형 AI의 저작권과 관련 최근 게티 이미지(Getty Images)가 그들의 자료를 학습데이터로 이용 및 제3자 접근과 개량을 허용한 스테빌리티 AI(Stability AI) 간의 소송을 들 수 있다. 세계 최대 규모의 시각 자료 보유 업체인 게티 이미지는 그들이 보유하는 자료를 사용자에게 라이선스를 제공하여 이용하도록 하는 방식의 사업을 추진함으로 그들의 라이선스 없이는 어떠한 자료도 다운로드, 복사, 재전송을 받을 수 없고, 데이터 마이닝, 로봇 등의 데이터 수집, 추출 방법에 사용될 수 없으며, AI 학습 데이터로 사용할 수 없도록 하고 있다.
다음으로, 개인정보와 관련한 법적 문제를 들 수 있다. 현재 많은 사람들이 이용하고 있는 ChatGPT의 경우 지식단절(2021년) 시기까지 공개된 서적과 기사, 웹사이트 등을 통해 3,000억 단어를 크롤링 등 방법으로 수집 및 학습한1) 결과를 이용함에 따라 사용한 공개 정보에 개인정보가 포함되어 활용되었을 것이라는 논란의 소지가 존재하며, 사실상 GPT-2가 생성한 결과에 포함되었던 암기한 데이터를 분류한 결과 개인의 이름, 연락처 등 개인정보화 저작물 등이 포함되어 잇는 것이 확인되었다.2)
관련해서 현재 영국, 프랑스, 캐나다 등 일부 국가에서는 정보주체의 동의 없이 공개된 개인정보를 수집 이용하는 것을 개인정보 보호를 위반하는 것으로 보고 있고, 이와는 달리 호주와 미국의 경우에는 공개된 개인 정보에 대해서는 개인정보 보호법이 적용되지 않으며 개인정보에서 배제될 수 있다는 입장을 보이고 있다. 한국의 경우 공개된 개인정보에 대해 별도의 법률 규정은 없으며, 다만 「표준 개인정보 보호지침」 제6조제4항에, “인터넷 홈페이지 등에 공개된 개인정보라 하더라도 ‘정보주체의 명확한 동의의사 또는 표시 내용에 비추어 사회통념상 동의 의사’가 있다고 인정되는 경우에만 수집·이용이 가능함을 명시하고 있다. 주1) https://blog.naver.com/data_flow/222069466012
주2) NIA, 2023, ChatGPT 등장과 법제도 이슈, 지능정보사회 법제도 이슈리포트

AI의 규범적 방향

많은 전문가들이 AI에 대한 혁신을 이야기 하면서 언급하는 부분이 바로 이 기술을 어떻게 올바른 방향으로 사용할 것인가의 문제이다. 이와 관련해서 글로벌 범위의 거버넌스를 중심으로 모든 국가가 공통적인 방향에서의 접근을 제시하고 있으며, 동시에 글로벌 규범을 통해 AI 기술의 개발과 활용의 과정에서 인간의 가치를 보호하고 안전한 사용을 위한 원칙을 마련하고자 하고 있다.3)
유엔과 유럽연합 등 국제사회가 AI의 활용에 따른 문제를 예방하기 위한 활동을 구체화하고 있는 것과 맞추어, 지난 2022년 5월 국가인권위원회에서도 AI 개발과 활용에 관한 인권 가이드라인을 마련했다. 이는 AI의 규범적 방향의 견지에서 관련 기술의 개발과 활용 시 인권침해와 차별을 방지함으로써 인간의 존엄성과 기본권의 보장을 위한 기준으로 제시되었다고 볼 수 있다. 인간의 존엄성 및 개인의 자율성과 다양성 보장, 투명성과 설명의무, 자기결정권의 보장, 차별금지, AI 인권영향평가 시행을 중심으로 제시된 가이드라인의 주요 내용을 살펴보면 아래와 같다. 주3) (사례 1) UN ‘신기술과 인권’ 결의안(‘23.7.) : UN 인권이사회는 한국의 주도로 결의안(’19)수정안에서 AI 기술이 인권에 미칠 영향을 평가하고 AI의 정보 수집·사용·삭제 시 국제인권법을 준수해야 한다는 내용을 수록 (사례 2) OECD AI 원칙(‘19.5) : OECD AI 위원회는 신뢰할 수 있는 AI의 확산을 위해 포용 및 지속가능한 성장, 인권과 민주적 가치보호, 지속적인 리스크의 평가·롼리 등의 내용을 담은 권고안을 발표 (사례 2) 아실로마 AI원칙(‘17.1.) : 미국의 비영리단체 ’Future of Life Institute’는 산학연 AI 전문가들과 AI 연구·개발 시 준수해야 하는 안전, 투명성, 프라이버시 보호 등 23가지 원칙을 발표(사례 참고 : NIA, 2023, IT & Future Strategy)

AI 기술을 효율적이고 안전하게 활용하기 위한 노력 필요

AI 기술의 성장과 함께 우리의 삶 다양한 영역에서 그 영향력이 커지고 있다. 또한 그 만큼 부정적 결과들 또한 다양한 모습으로 나타나면서 부정적인 영향력을 보여주고 있으며, 이런 위험성을 방지하고 해결하기 위한 논의와 시도가 이루어지고 있다. 이와 같은 맥락에서 AI 기술이 추구해야 하는 규범적 방향성 그리고 AI 기술의 이용에서 나타날 수 있는 위험성을 줄이기 위한 법제도적 측면과 기술적 측면에서의 방안을 제안했다.
이 글에서 다루지 못한 더 많은 문제들이 기술의 발전과 함께 그만큼 커질 것으로 충분히 예상할 수 있다. 그럼에도 불구하고 공공분야에서 AI 기술의 활용은 피할 수 없는 도전이며, 도달해야 하는 목표임에 틀림없다. 다만 이 도전을 보다 효율적이고 안전한 모습으로 만들어 가기 위한 끈질긴 노력이 필요할 뿐이다.