비전문가가 만들고 활용하는 AI… 위험요소는?
▶ 최근 하버드비즈니스리뷰(Harvard Business Review)는 보고서를 통해 ‘AI 시대 시민과학의 위험’에 대한 우려를 표함. 이는 auto-ML* 등장으로 인해 비전문가의 AI 구현이 용이해졌기 때문.
* 기계학습 코드를 만드는 방법과 프로세스를 제공하는 소프트웨어. ‘인공지능을 만들어 내는 인공지능’이라고도 불린다
▶ 기존에는 고도로 훈련된 데이터 과학자만이 AI 개발을 할 수 있었음. 그러나 기술이 발전하면서 “비전문가도 데이터 과학, 기계학습을 활용해야 한다”는 요구가 제기됨(Democratizing AI). 시민과학자는 물론, 기업의 사업 부서 등이 데이터 기반 작업을 통해 자신의 문제를 스스로 해결하는 것을 뜻함
▶ 그러나 비전문가의 AI 개발은 위험요소를 안고 있음
- 자동 기계학습 생성 모델을 활용할 경우, 교육 및 경험의 격차를 해소하지 못하므로 실패 확률이 높아짐. 예를 들어, 궁극적으로는 쓸모없는 모델을 만들 위험이 있다는 분석. AI 전문가조차도 익숙하지 않은 다양한 윤리, 법/규제 관련 위험도 감수해야 함
- 실제 IBM 기업가치 연구소(IBM Institute for Business Value)가 2022년 실시한 설문조사에 따르면, 조사 응답자 대다수(80%)는 “비기술분야 임원이 조직에서 AI윤리를 이끌고 있다”고 지적. 이는 2018년(15%)에 비해 크게 증가한 수치
▶보고서는 민주화된 AI(Democratizing AI)를 위해 ‘AI 활용의 기초 환경(basic AI hygiene)’을 구축해야 한다고 주장. 구체적으로 향후 조직 내 관련 가이드 및 지속적인 교육 제공, AI 초보자를 위한 전문 멘토 프로그램 운영, 전문가의 검증 등이 필요하다는 지적
<동향리포트>는 글로벌 과학기술문화, 과학·수학·정보 교육 분야의 정책 의사결정자들을 위한
국가별 정책, 연구조사보고서, 유관기관 동향 등 시의성 있는 유용한 정보를 제공합니다.