科技部发布AI使用规范:生成式AI在申报材料中禁用(ai生成技术)

近日,科技部监督司发布了《负责任研究行为规范指引(2023)》,对人工智能AI)在科研领域的使用进行了规范。其中,生成式AI被明确禁止直接用于生成申报材料,同时不得将其列为成果共同完成人。这一规定旨在加强科研行为的规范性,确保科技伦理要求得到贯彻执行。

生成式AI是一种新兴技术,能够根据输入的文本自动生成全新的、真实的文本内容。近年来,随着深度学习技术的不断发展,生成式AI在各个领域得到了广泛应用。然而,由于其生成的内容可能存在不可控的风险,因此在使用过程中需要严格遵守相关规定。

科技部此次发布的《指引》明确指出,不得使用生成式AI直接生成申报材料。这意味着,在科研项目的申报、评审和结题等环节,研究人员必须自行撰写相关材料,不得依赖生成式AI来生成虚假或误导性的信息。这一规定有助于保障科研成果的真实性和可信度,防止出现学术不端行为。

同时,《指引》还强调了科研人员在研究过程中的伦理责任。科研人员应把科技伦理要求贯穿到研究活动的全过程,确保研究行为符合伦理准则。此外,针对成果发布问题,《指引》要求公布突破性研究成果和重大研究进展应经所在科研单位同意,未经科学验证或同行评议的研究成果不得向公众传播。

这些规定的出台,对于规范科研行为、提高科研成果质量具有重要意义。同时,也为生成式AI在科研领域的应用提供了明确的指导原则。未来,随着技术的不断发展和应用场景的拓展,生成式AI在各个领域的应用将更加广泛。在此背景下,加强对其使用的管理和规范,对于保障科技伦理、促进科技创新具有重要意义。

总之,《负责任研究行为规范指引(2023)》的发布为科研人员在使用生成式AI时提供了明确的指导原则。在未来的科研工作中,研究人员应严格遵守相关规定,确保研究行为的规范性和伦理要求得到落实。(数据支持:天眼查

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

(0)
上一篇 2024年4月18日 上午8:02
下一篇 2024年4月18日 上午8:14

相关推荐