认证网.专业的检测认证综合平台|检测中心|认证中心|认证黄页|外贸行情|行业新闻|综合新闻
 智能搜索
热搜:检测SABER认证SGCC认证SONCAP认证CE认证US 16 CFR§1700.20ISO8317认证
首页 > 行业新闻 > 法规标准 > 正文

欧盟发布《科研领域负责任使用生成式人工智能指南》

认证网 (2024/4/9 8:39:33)  浏览:29  评论:0
       近年来,随着数据资源的广泛可用、计算能力的飞跃以及机器学习的进步,人工智能技术取得了突飞猛进的发展。特别是基础模型的开发催生了所谓的“通用人工智能”。这些模型能够执行多样化任务,包括创造各种新内容(如文本、代码、图像等),我们称之为“生成式人工智能”。它们通常根据用户输入的指令(提示)来生成内容,其质量之高,以至于很难将其与人类生成的内容进行区分。

  生成式人工智能的广泛而快速的应用引发了人们的广泛关注以及广泛的政策和机构回应。其中包括欧盟在《人工智能法案》以及七国集团主导的《布莱切利宣言》。生成式人工智能为各行各业带来了无限可能。尤其是在科学研究领域,人工智能的潜力巨大,它能够加速科学发现,提高研究效率和验证过程的速度。然而,它也伴随着风险,比如大量制造虚假信息,以及其他可能对社会产生重大影响的不道德用途;此外,技术的滥用也可能导致研究的不端行为和错误信息的传播。

  一、指南的核心原则

  这些指导方针基于现有的相关框架,如《欧洲研究诚信行为准则》和《高级别专家制定的关于可信赖人工智能的工作和指南》。它们强调了研究质量的可靠性、透明度、公平性、彻底性和公正性,以及尊重同事、研究参与者和社会的原则。

  二、关于在科学研究中负责任地使用生成式人工智能的指导原则

   (一)对科研人员的建议

  1. 对科研成果负最终责任。

  a) 科研人员对由人工智能工具生成或在其支持下生成的内容的完整性负责。

  b) 科研人员在使用生成式人工智能所产生的结果时应保持批判的态度,并意识到这些工具的局限性,如偏差、幻觉和不准确性。

  c) 人工智能系统既不是作者,也不是共同作者。作者身份意味着代理权和责任,因此它属于人类科研人员。

  d) 科研人员不会在科学研究过程中使用生成式人工智能制作的材料,例如伪造、篡改或操纵原始研究数据。

  2. 透明地使用生成式人工智能。

  a) 为透明起见,科研人员应详细说明在其研究过程中主要使用了哪些生成式人工智能工具。提到的工具可包括名称、版本、日期等,以及它是如何被使用并对研究过程产生影响的。如果相关,研究人员应根据开放科学原则提供输入(提示)和输出。

  b) 科研人员考虑到了生成式人工智能工具的随机性,即相同的输入会产生不同的输出。科研人员力求结果和结论的可重复性和稳健性。他们披露或讨论所使用的生成式人工智能工具的局限性,包括生成内容中可能存在的偏差,以及可能的缓解措施。

  3. 在与人工智能工具共享敏感或受保护信息时,要特别注意与隐私、保密和知识产权相关的问题。

  a) 科研人员应注意到,生成或上传的输入(文本、数据、提示、图像等)可能会被用于其他目的,如训练人工智能模型。因此,他们要保护未发表或敏感的作品(如自己或他人未发表的作品),注意不要将其上传到在线人工智能系统中,除非能保证这些数据不会被重复使用。

  b) 科研人员应注意不向在线生成式人工智能系统提供第三方的个人数据,除非得到数据主体(个人)的同意,且应遵守欧盟数据保护规则确保符合欧盟数据保护规则。

  c) 科研人员应了解有关隐私、保密和知识产权的技术和道德影响。例如,检查工具的隐私选项、工具的管理者(公共或私营机构、公司等)、工具的运行地点以及对上传信息的影响。这可能包括封闭环境、在第三方基础设施上托管并保证隐私,也可能包括开放的互联网访问平台。

  4. 在使用生成式人工智能时,要像在常规研究活动中一样,尊重适用的国家、欧盟和国际立法。特别是,生成式人工智能所产出的成果在知识产权和个人数据保护方面可能特别敏感。

  a) 科研人员在使用生成式人工智能的输出结果时,要注意剽窃(文本、代码、图像等)的可能性。科研人员要尊重他人的著作权,并在适当时引用他人的作品。生成式人工智能的输出(如大型语言模型)可能基于他人的成果,需要适当识别和引用。

  b) 生成式人工智能产生的输出可能包含个人数据。如果出现这种情况,科研人员有责任负责任地妥善处理输出的任何个人数据,并遵守欧盟数据保护规则。

  5. 通过培训等方式,不断学习如何正确使用生成式人工智能工具,以最大限度地发挥其优势。生成式人工智能工具发展迅速,新的使用方法不断被发现。科研人员要及时了解最佳实践,并与同事和其他利益相关者分享。

  6. 避免在可能影响其他科研人员或组织的敏感活动中大量使用人工智能生成工具(例如同行评审、研究提案评估等)。

  a) 避免使用生成式人工智能工具,可消除这些工具的局限性(如幻觉和偏见)可能导致的不公平待遇或评估的潜在风险。

  b) 此外,这样做还可以保护科研人员未发表的原创作品,使其免于暴露或被纳入人工智能模型。

  (二)对科研机构的建议

  1.促进、指导和支持在研究活动中负责任地使用生成式人工智能。

  a) 科研机构提供和/或促进关于使用生成式人工智能的培训,特别是(但不限于)关于验证输出、维护隐私、解决偏见和保护知识产权的培训。

  b) 科研机构提供支持和指导,确保符合道德和法律要求(欧盟数据保护规则、知识产权保护等)。

  2. 积极监督组织内生成式人工智能系统的开发和使用情况。

  a) 科研机构始终关注其使用生成式人工智能的研究活动和流程,以便更好地支持其未来的使用。以便为使用生成式人工智能提供进一步指导、帮助确定培训需求,并了解哪种支持最有益;帮助预测和防范人工智能工具可能被误用和滥用;出版并与科学界共享。

  b) 科研究机构分析技术和工具的局限性,并向其科研人员提供反馈和建议。

  3. 参考这些生成式人工智能指南,或将其纳入研究实践和伦理的一般研究指南中。

  a) 科研机构以这些指导方针为讨论基础,就生成式人工智能的使用和相关政策公开征求研究人员和利益相关者的意见。

  b) 科研机构应尽可能采用这些指导方针。如有必要,还可补充具体的附加建议和/或例外情况,并应公布这些建议和/或例外情况,以提高透明度。

  4. 在可能和必要的情况下,实施本地托管或基于云的生成式人工智能工具,由它们自己管理。这样,员工就能将他们的科学数据输入到一个能确保数据保护和保密性的工具中。各组织确保这些系统,特别是与互联网连接的系统达到适当的网络安全水平。

  (三)对科研资助组织的建议

  资助组织在不同的背景下运作,遵循不同的任务和规定,可能与单一的一套准则不一致。以下是一些有效的做法,供各组织以最适合其具体情况和目标的方式加以实施。

  1. 促进和支持在研究中负责任地使用生成式人工智能。

  a) 科研资助组织设计的资助工具应开放、乐于接受并支持在研究活动中负责任地、合乎道德地使用生成式人工智能技术。

  b) 科研资助组织应要求受资助的研究和受资助者符合现有的国家、欧盟和国际立法(如适用)以及使用生成式人工智能的有益实践。

  c) 科研资助组织应鼓励研究人员和研究机构以合乎道德和负责任的方式使用生成式人工智能,包括遵守法律和研究标准要求。

  2. 审查生成式人工智能在其内部流程中的使用情况。它们将确保以透明和负责任的方式使用人工智能,从而起到带头作用。

  a) 根据强调责任和人为监督的问责原则,科研资助组织仍对在其活动中使用生成式人工智能负全部责任。

  b) 科研资助组织应以透明的方式使用生成式人工智能,特别是在与评估和评价目的管理有关的活动中,并且不损害内容的保密性和过程的公平性。

  c) 在选择生成式人工智能工具时,科研资助组织应仔细考虑该工具是否符合质量、透明度、完整性、数据保护、保密性和尊重知识产权的标准。

  3. 要求科研项目申请者在使用生成式人工智能方面保持透明,以便于报告。

  a) 科研项目申请者应声明在申报过程中是否使用了大量人工智能生成工具。

  b) 科研项目申请者应提供信息,说明生成式人工智能在提议和开展的研究活动中的作用。

  4. 关注并积极参与快速发展的生成式人工智能领域。科研资助组织应推动并资助培训和教育计划,以便在科学研究中以合乎道德和负责任的方式使用人工智能。
检测认证热线:18768485300 & QQ在线服务:有事请联系我
更多
相关内容:
  • 暂无内容!
以下是网友对 欧盟发布《科研领域负责任使用生成式人工智能指南》 的评论:
[本主题共0条评论 | 每页显示10条评论]
评论前,请先 登录
验证码:
请进入OYM认证服务中心
请点击进入检测导航
请点击进入认证导航