인공지능 분야에서 가장 큰 과제 중 하나는 단지 지능적인 것뿐만 아니라 인간의 윤리 기준과 가치에 부합하는 방식으로 행동하는 AI 시스템을 개발하는 것입니다. 이를 위한 한 가지 접근법은 법전과 판례를 기반으로 AI를 학습시키는 것입니다. 이 글에서는 이 방법을 탐구하고 인간과 유사한 규범과 가치를 가진 AI를 만들기 위한 보완 전략들을 살펴봅니다. 저는 이 제안을 네덜란드 AI 연합을 대표하여 법무부(J&V)에 제출한 전략 보고서에서도 제시한 바 있습니다.
간극 식별을 위한 GAN 활용
생성적 적대 신경망(GAN)은 법 체계의 공백을 발견하는 도구로 활용될 수 있습니다. 기존 법령의 범위를 벗어나는 시나리오를 생성함으로써 GAN은 잠재적인 윤리적 딜레마나 다루어지지 않은 상황을 드러낼 수 있습니다. 이는 개발자들이 이러한 공백을 식별하고 해결하게 하여 AI가 학습할 보다 완전한 윤리적 데이터셋을 확보하도록 돕습니다. 물론 모델을 정교화하기 위해서는 법률가, 판사, 정치인, 윤리학자들과의 협력이 필요합니다.
법령 기반 학습이 견고한 출발점을 제공하지만 몇 가지 중요한 고려사항이 있습니다:

인간 윤리와 진정으로 공명하는 AI를 개발하려면 보다 포괄적인 접근이 필요합니다.
1. 문화적·사회적 데이터의 통합
AI를 문학, 철학, 예술, 역사에 노출시키면 시스템은 인간 조건과 윤리적 쟁점의 복잡성에 대해 더 깊이 이해할 수 있습니다.
2. 인간과의 상호작용 및 피드백
훈련 과정에 윤리학, 심리학, 사회학 전문가를 참여시키면 AI를 정교하게 다듬는 데 도움이 됩니다. 인간의 피드백은 미묘한 차이를 제공하고 시스템의 부족한 부분을 보정할 수 있습니다.
3. 지속적 학습과 적응
AI 시스템은 새로운 정보로부터 학습하고 변화하는 규범과 가치에 적응하도록 설계되어야 합니다. 이를 위해서는 지속적인 업데이트와 재학습이 가능한 인프라가 필요합니다.
4. 투명성 및 설명 가능성
AI 의사결정이 투명하고 설명 가능해야 하는 것은 매우 중요합니다. 이는 사용자 신뢰를 촉진할 뿐만 아니라 개발자가 윤리적 고려사항을 평가하고 필요시 시스템을 조정할 수 있게 합니다.
법전과 판례를 바탕으로 AI를 훈련시키는 것은 인간의 규범과 가치를 이해하는 시스템을 개발하는 데 있어 가치 있는 단계입니다. 그러나 인간과 유사한 방식으로 진정 윤리적으로 행동하는 AI를 만들려면 다학제적 접근이 필요합니다. 법률을 문화적·사회적·윤리적 통찰과 결합하고 인간 전문가를 훈련 과정에 통합함으로써 우리는 단순히 지능적인 것뿐만 아니라 현명하고 공감 능력이 있는 AI 시스템을 개발할 수 있습니다. 다음을 살펴봅시다. 미래 가져올 수 있다
추가 자료: