[NRF 동향] 생성형 AI 도구, 윤리적이고 책임 있는 사용이 중요

동향분석-[NRF 동향]-img-main.jpg


연구개발 활동의 도구로서 잠재력을 지닌 생성형 AI 도구


2022년 말 오픈 AI가 세상에 선보인 챗봇 ‘챗GPT’는 말 그대로 돌풍을 일으켰습니다. 그로부터 2년이 채 되지 않았지만 글로벌 기업들이 경쟁적으로 서비스를 대중에 선보이면서 생성형 AI 도구는 놀라운 속도로 우리 일상으로 스며들고 있습니다. 의료, 법률, 금융, 미디어 등 산업 전반으로 확산하고 있는데요.


학술·연구 분야에서 역시 지식의 진보를 위한 수단으로써 생성형 AI 도구의 잠재력은 매우 큽니다. 예를 들어 연구 설계 과정에서 방대한 자료를 요약하거나 유사 연구를 분석, 방법론을 제시하는 등 연구 역량 제고에 도움을 줄 수 있을 것이라는 기대입니다.


생성형 AI 도구의 연구 활동에 활용 관련 가이드라인 동향


잠재력이 큰 만큼 우리 학술생태계에 미치는 영향도 클 것인데요. 생성형 AI 도구에 입력되는 ‘데이터의 기밀성’과 출력되는 ‘콘텐츠의 신뢰성’과 관련하여 권리와 의무의 주체로서 사용자의 신중함 (또는 책임)을 요구하는 지점이 있음을 주목할 필요가 있습니다. 우리나라의 국정원의 「챗GPT 등 생성형 AI 활용 보안 가이드라인 (2023.6.)」이나 질병관리청의 「보건의료 분야 인공지능 연구자를 위한 연구 윤리 지침 (2023.8.)」도 이러한 맥락에서 이해할 수 있습니다.


해외에서도 관련 논의가 활발합니다. 주요 학술단체들과 대학들을 선두로 해외 연구 지원 기관들도 생성형 AI 기술 동향을 주시하면서 생성형 AI 도구 사용 가이드라인을 발표한 것인데요. 90개국 1,000여 개 이상 의학 분야 저널의 편집인 협의체인 세계의학편집인협의회 WAME이 빠르게 움직였습니다. 「학술출판에서 챗GPT 및 챗봇 사용에 관한 권고사항 (2023.1.)」을 통해 챗봇 사용에 대한 정보 공개와 제공 자료에 대한 책임에 대해 다루었습니다.


전 세계 학술지와 출판사들이 주목하는 국제학술지출판윤리위원회 COPE 역시 이를 지지한다고 입장문을 밝히면서 생성형 AI의 책임 있는 사용에 관한 논의는 더욱 힘을 얻었습니다. 네이처도 사설 (Editorials)을 통해 LLM (Large Language Models) 도구의 윤리적 사용과 관련한 원칙을 발표했습니다.

* 상기 내용은 「연구개발에서 인공지능 도구의 활용과 관련된 연구 윤리 이슈 분석」 (한국연구재단 이슈리포트 2023.5., 2023.8.)의 내용을 참고하여 작성하였습니다.


이처럼 학술단체나 대학 같은 연구 수행 주체를 중심으로 시작된 움직임은 각국의 연구 지원 기관의 가이드라인 발표로 이어졌습니다. 미국 NIH (2023.6.), 독일 DFG (2023.7.), 호주 ARC (2023.7.)에서부터 미국 NSF (2023.12.), 중국 과기부 (2023.12.)가 생성형 AI의 연구개발 활동 활용과 관련한 가이드라인을 공식 발표했습니다.


한국연구재단 역시 연구 지원 및 연구 관리 업무의 효율화를 위한 활용 방안을 검토하는 한편 생성형 AI 도구의 책임 있는 사용을 통한 건전한 학술생태계 조성을 이끌기 위한 재단의 역할을 고민해 왔습니다. 지난해 「대학 교원의 연구 윤리 인식 수준 조사」에서 생성형 AI 도구의 연구 활동 활용에 관한 연구자 인식을 알아본 것도 그 일환입니다.

인식 수준 조사 (응답자: 대학에서 연구하는 2,822명)를 통해 AI를 연구에 활용 중인 연구자는 10%에 불과하지만 약 53%는 AI가 연구 윤리 준수에 이미 심각한 문제가 되고 있거나 될 것이라고 인식하는 것을 알 수 있었습니다. 논문 작성 과정에서 생성형 AI를 활용하고 이에 대해 기술하지 않는 것을 연구 부정 행위라고 인식 (62%)하고 논문 심사나 과제 평가 시 생성형 AI를 활용하는 것이 비밀 유지 의무 위반이라고 인식 (43%)하였습니다.

* 상기 내용은 「2023년 대학 교원 연구 윤리 인식 조사」 (한국연구재단 연구윤리지원센터, 2023.12.) 의 내용을 참고하여 작성하였습니다.


생성형 AI 도구의 연구 활동에의 책임 있는 사용을 위한 NRF 권고


인식 수준 조사를 통해 대다수 연구자들도 과제 평가 시 생성형 AI를 활용할 때의 평가 자료 등의 기밀성 그리고 연구계획서나 결과보고서에 포함된 생성형 AI 콘텐츠의 신뢰성에 대한 우려가 있음을 알 수 있었습니다.

이 같은 배경에서 최근 한국연구재단은 재단 연구개발 과제의 신청 및 평가와 관련 「생성형 AI 도구의 책임 있는 사용을 위한 권고사항 (2024.3.)」을 마련하고 발표했습니다. 재단 과제 평가자와 재단 과제 신청자·수행자에 대한 권고인데요. 구체적으로 ‘재단 과제 평가자’의 평가 자료에 대한 생성형 AI 업로드 금지와 ‘재단 과제 신청자·수행자’의 제안서·보고서 작성 시 생성형 AI 사용 내역 명시 권장, 두 가지를 담았습니다. 건전한 학술생태계를 조성하고 생성형 AI 도구의 책임 있는 사용을 이끌기 위해 대학, 학술단체 등에 권고사항을 공문으로 발송하는 한편 재단 홈페이지와 연구윤리정보포털에도 게시하였습니다.


연구개발 활동에서의 의사 결정 주체는 연구자, 책임 있는 사용은 연구자의 선택


한국연구재단은 연구개발 활동의 생산성을 높일 수 있는 하나의 동력으로서 생성형 AI 도구의 잠재력에 주목하면서 건전한 학술생태계 조성을 위한 재단의 책무를 다하고자 고심하였습니다. 현재로서는 생성형 AI 도구는 입력 데이터의 보안과 출력 콘텐츠의 정확성, 진실성, 독창성에 대한 책임의 주체로 인정되지 않는 추세입니다. 데이터를 입력하여 콘텐츠 생성을 지시하고 콘텐츠를 사용한 사용자가 책임의 주체가 되기 때문입니다. 이에 이번 권고사항이 과제 신청이나 수행, 평가 등 연구개발 활동에서 의사 결정의 주체가 되는 연구자 여러분을 중심으로 학술단체와 모임 등을 통해 활발한 논의가 이뤄지고 건전한 학술 활동의 모범이 될 만한 사례들이 축적되는 계기가 되길 기대합니다.


출처: https://webzine.nrf.re.kr/nrf_2403/sub_1_04.php