[NRF 동향] 한국연구재단, 생성형 AI 도구의 책임 있는 사용을 위한 권고사항 발표

동향분석-[NRF 동향]-img-main.jpg


생성형 인공지능 (AI) 기술이 놀라운 속도로 발전하면서 다양한 분야의 변화를 주도하고 있습니다. 이에 한국연구재단도 연구 지원 및 관리 업무의 효율화 차원에서 생성형 AI 도입을 적극 검토하고 있습니다.


한국연구재단은 연구자와 평가자들이 연구개발의 본질적인 가치를 지키며 AI 도구를 윤리적이고 책임 있게 사용하도록 다음과 같이 권고사항을 마련했습니다.


본 권고사항은 생성형 AI의 부정적인 사용을 지양하고 바람직한 활용을 유도하기 위한 것으로, AI 기술의 발전 상황과 연구 현장 의견 등을 반영해 앞으로도 필요한 사항에 대해 수정·보완할 예정입니다.


권고사항


1. 한국연구재단이 지원하는 연구개발 과제의 평가에 참여하는 평가 위원*은 각종 평가 자료**를 생성형 AI 도구에 입력 (업로드)하지 말아야 합니다.

* 평가 위원: 온·오프라인에서 서면 또는 패널 방식으로 과제의 선정·중간·결과 평가에 참여하는 위원

** 평가 자료: 연구개발계획서, 단계/최종보고서, 평가 의견, 평가 위원 리스트 등 과제 평가와 관련된 제반 자료

※ 한국연구재단의 연구개발 과제 평가 등에 관여한 평가위원 등이 ChatGPT 등 생성형 AI에 해당 연구개발 과제 관련 정보를 업로드하는 행위는 국가연구개발혁신법 제40조 비밀 유지 의무에 위반될 수 있음.


2. 한국연구재단 지원 과제의 신청자 및 수행자는 연구개발계획서 및 단계/최종보고서 작성 과정에서 생성형 AI 도구를 사용한 경우, 해당 계획서 및 보고서에 AI 도구 사용 내역을 기술할 것을 권장합니다.


한국연구재단은 지난해부터 『건전한 학술생태계 구축을 위한 캠페인』을 전사적으로 추진하고 있습니다.

이에 연구자분들도 생성형 AI 도구의 건전하고 책임 있는 사용에 적극 동참해 주시길 바랍니다.


한국연구재단의 생성형 AI 도구의 책임 있는 사용을 위한 권고사항

바로가기: https://cre.nrf.re.kr/bbs/BoardDetail.do?bbsId=BBSMSTR_000000000098&nttId=8787


출처: https://webzine.nrf.re.kr/nrf_2403/sub_1_01.php