共 16 条
ChatGPT类生成式人工智能在科研场景中的应用风险与控制措施
被引:76
作者:
游俊哲
机构:
[1] 东南大学网络安全法治研究中心
来源:
关键词:
ChatGPT;
生成式人工智能;
科研场景;
风险规制;
学术伦理;
D O I:
10.16353/j.cnki.1000-7490.2023.06.004
中图分类号:
G350 [情报学];
学科分类号:
摘要:
[目的/意义]以ChatGPT为代表的生成式人工智能(AI)所展现出的强大“类人性表达”能力使科研活动中的知识获取途径从检索式向生成式转变,思维运作过程从综合式向选择式过渡。科研方法的转变进一步导致生成式AI冲击现有的科研评价规则,在科研场景中引发输出低质量信息的风险与研究者不当利用进行欺诈舞弊的风险。有必要对现有的科研评价规则进行创新、改善,以此规制生成式人工智能所引发的科研风险。[方法/过程]通过文献分析法提出当前学界从可版权性出发的赋权论探讨难以满足风险规制的需求。[结果/结论]应采取行为规制模式,在行业软法中设置使用披露义务、内容审查义务以及创新性说明义务,并将研究者的AI使用场景分为作为语言辅助工具的使用、作为事实发现工具的使用以及作为思想生成工具的使用,并根据不同场景为其分配不同程度的义务。
引用
收藏
页码:24 / 32
页数:9
相关论文