최근 기업, 대학, 연구소 또는 개인이 소통형 AI를 개발하거나 활용하는 사례가 점차 늘고 있다.
이 경우 AI 특성상 정보의 사실 여부 뿐만 아니라, 다양한 사회적, 윤리적 문제를 야기할 수 있다. 이때 참고할 만한 논문이 있어 소개한다.
이 논문은 독일 아우크스부르크 대학을 중심으로 과학소통/AI/미디어 전공자들이 과학사회학 대표 학술지인 PUS 2025년 5월호에 발표한 내용이다.
연구팀은 사전 연구 분석을 통해, 점차 확대되고 있는 <AI 기반 과학소통>에서 ‘품질’ 관리는 어떻게 할 것이며, 어떤 '원칙'이 지켜져야 하는 가를 개념적으로 정리했다.
▶ 주요 내용
<AI 기반 과학소통>이 지켜야할 5가지 원칙은 아래와 같다.
1) Scientific Integrity(과학적 무결성)
Human-in-the-loop 검증과 출처 확인을 통해 과학적 정확성과 검증 가능성을 유지해야 한다.
2) Human-centricity(인간 중심성)
AI는 인간 소통을 대체하는 것이 아니라, 인간 소통 능력을 확장해야 한다.
3) Ethical Responsiveness(윤리적 대응성)
윤리문제에 적극 대응해야 한다. 개인정보 보호, 사회적 이익 증진, 공정성 등을 윤리 원칙으로 삼고, AI 편향, 과학 정보 조작 등을 금지해야 한다.
4) Inclusive Impact(포용적 영향력)
AI는 다양한 문화, 사회적 약자, 디지털 격차 완화 등 다양한 사회 집단에 공정한 시각을 갖고 공평한 영향을 미쳐야 한다.
5) Governance(관리 체계)
AI 시스템은 책임 소재가 불명확하기 때문에 정책적 관리·감독이 필요하다.
▶ 시사점
- AI는 과학 기자, 교육자, 대중 강연자 등 미래 사회 새로운 과학소통 주체가 될 것이다.
- AI는 개인 맞춤형 지식 전달자, 모두에게 쉬운 접근성, 개인화된 상호작용 능력을 갖추고 과학 소통이 더욱 확대될 것이다.
- 그러나, ‘질’ 관리가 안되면 위험하다. 논문 저자는 규칙보다 ‘원칙 기반 프레임워크(Principle-based Framework)’의 필요성을 강조하고 있다.
▶ 결론
- 이 논문은 AI 시대에 과학 소통 정책을 수립하고 추진할 경우, 사전에 검토하고 반영해야 할 원칙을 체계적으로 제시하고 있다.
- 또한 AI 기반 과학소통의 품질 기준 마련, AI 기반 소통 역량 함양, AI 과학소통 평가 체계 수립, AI가 특정 국가와 언어에 집중되지 않도록 국제협력을 강화하는 것도 중요한 전략이다.