News Release

为人工智能治理调整知识产权法

Reports and Proceedings

American Association for the Advancement of Science (AAAS)

人工智能(AI)技术的快速演进和扩大使用正在超越指导其符合伦理应用的施行监管和政策措施的速度。在一篇《政策论坛》中,Cason Schmit和同事提出了一种监管人工智能的新方法,它涉及利用两种现有的管理知识产权的法律工具——公共版权许可和专利钓饵。他们称其方法为CAITE(Copyleft AI with Trusted Enforcement,或:具有可信强制执行的公共版权人工智能)。AI技术的迅速发展和广泛采用一直快于管控监督的速度,这在很大程度上导致了政策缺乏。然而,鉴于AI对日常生活的方方面面几乎都有潜在影响,因此迫切需要监管措施以确保其使用适当且合乎伦理。为满足这一需求,Schmit等人建议改造借鉴于知识产权法中的法律框架和机制,以在人工智能应用和培训数据集中建立一个精确细腻且强制执行的新伦理系统。通过将传统上用于实现创作内容广泛共享的“公共版权许可”与经常被批评会遏制技术发展的“专利钓饵”模型相结合,Schmit等人开发了符合伦理的AI治理模型:CAITE。根据该CAITE模型,人工智能产品及其任何衍生品将受到一系列道德条款和条件的约束。道德使用许可证的实施将归属于某个中央可信实体,后者在理想情况下将由社区指定的非政府人工智能开发者和用户团体领导。根据作者的说法,该CAITE系统会以一种灵活和受社区操纵的方式激励和执行人工智能的道德操作,这可以为传统的政府监督提供软性法律支持。

作为该《政策论坛》的补充,Schmit要求ChatGPT(一种AI聊天机器人)提供有关如何规范人工智能道德应用的见解。虽然其输出的内容提供了合理总结的重要注意事项,但该AI机器人却对更困难的问题(如应该如何实施治理)进行了敷衍搪塞。人们可在该成套新闻的多媒体部分获得一幅该查询结果的图像。


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.