가이드라인 마련, 1분기 확정해 적용 계획
[미디어펜=류준현 기자] 금융감독원은 금융권이 건전하게 인공지능(AI)을 활용할 수 있도록, '금융분야 AI 위험관리 프레임워크(AI RMF)'를 마련한다고 15일 밝혔다. 

   
▲ 금융감독원은 금융권이 건전하게 인공지능(AI)을 활용할 수 있도록, '금융분야 AI 위험관리 프레임워크(AI RMF)'를 마련한다고 15일 밝혔다./사진=미디어펜 김상문 기자


금감원이 AI 위험관리에 나선 건 AI의 복잡성, 불투명성, 데이터 의존성 등으로 인한 새로운 유형의 위험이 대두되면서 금융소비자의 권익을 침해하거나 금융안정을 훼손할 수 있다는 우려가 점증하는 까닭이다. 특히 금융 분야는 자금 중개라는 본질적 특성상 AI 위험이 산업·사회 전반과 금융소비자에게 큰 영향을 미칠 수 있다. 

하지만 금융사의 AI 거버넌스와 위험관리는 대체로 미진한 상황이다. 금감원이 지난해 4월 국내 금융사 118곳을 전수조사한 결과, 은행 5곳(25%), 보험사 4곳(7.5%), 증권사 1곳(2.7%)만 의사결정기구를 설치했다. 약 85%의 금융회사는 AI 윤리 원칙, 위험관리 기준 등을 마련하지 않았다.

이에 금감원은 금융권이 '혁신과 책임'의 균형 하에 건전하게 AI를 활용할 수 있도록 가이드라인 형태의 자발적 지침을 마련했다.

지침에 따르면 금융사는 AI 위험관리 등을 위한 의사결정기구와 전담 조직을 구성하는 등 거버넌스 체계를 구축해야 한다. 의사결정기구의 위원장은 최고경영자(CEO)가 AI와 관련된 사업계획, 전략, 위험 등을 명확히 인식할 수 있도록 CEO에게 정기적으로 보고해야 한다.

아울러 위험관리 규정 및 지침 등 AI 관련 내규를 수립하고 세부적인 업무매뉴얼도 마련해야 한다. 또 금융 및 AI 관련 법규 준수 의무를 부과하고, 최종 의사 결정 책임을 임직원이 지도록 내규화했다. 이와 함께 표준화된 매뉴얼을 통해 AI 도입부터 활용까지 전 프로세스를 관리하고, 부서 간 역할과 책임도 명확히 하도록 했다.

금융사는 위험을 체계적으로 관리하기 위해 '위험 기반 접근방법(Risk-based approach)'의 종합 평가체계를 구성해야 한다. 이에 '금융 AI 7대 원칙' 중 정량적 요소를 토대로 위험평가 체계를 설계하고, 원칙 준수를 위한 기본요소를 평가 항목 등에 반영해 AI 서비스별 위험을 분류해야 한다. 다만 AI기본법상 대출 심사 등 개인의 의무·권리에 영향을 미치는 고영향 AI는 등급과 무관하게 고위험 서비스로 분류해야 한다.

이와 함께 금융회사는 위험 수준별로 차등화된 통제·관리를 수행하고, 초고위험 AI의 경우 출시 여부를 재검토하는 등 위험통제를 위한 절차도 이행해야 한다.

금감원은 설명회·간담회 등을 통해 충분한 의견수렴을 거친 후 1분기 중 최종안을 확정·시행할 예정이다. 또 모범사례 전파, 도입회사 실태점검 등을 통해 AI RMF의 거버넌스, 위험관리 및 위험통제 프로세스가 금융회사의 내부통제 체계에 안착할 수 있도록 충실히 지원할 계획이다. 
[미디어펜=류준현 기자] ▶다른기사보기