睿象云智能告警平台的分派策略
797
2023-01-18
专家释疑人工智能时代各项法律争议 人工智能须以法律和伦理为界
专家释疑人工智能时代各项法律争议 人工智能须以法律和伦理为界
围绕上述问题,“人工智能:科学与法学的对话”研讨会近日在重庆举行。此次研讨会由中国知识产权法学研究会、西南政法大学主办,西南政法大学知识产权学院、重庆知识产权保护协同创新中心、北京阳光知识产权与法律发展基金会承办。
作品判断存在争议
满足独创性是关键
关于人工智能是否拥有主体资格以及同时伴有的侵权责任问题,目前仍然存在很大的争议。
此案的判决是人民法院首次对涉计算机软件智能生成内容的著作权保护问题进行回应。
中南财经政法大学知识产权学院教授黄玉烨提出,人工智能生成作品的著作权保护问题存在两种困境,一是其是否具有独创性、是否反映了人的个性;二是其权利主体为谁,假设人工智能生成作品受着作权保护,人工智能能否成为著作权主体。
“依据现行法律和传统著作权理念,人工智能不能成为著作权主体,因为著作权主体应当是民事主体,即自然人、法人和非法人组织,动物、机器都不能成为权利主体。”黄玉烨说。
华东政法大学知识产权学院教授丛立先则认为,如果在人工智能开发、利用和转移的过程中有合同,不违反合同法基本规则,那么合同要优先。在版权法语境下,目前用现代规则体系和思维模式可以解决问题,当问题无法解决时,再讨论主体性。
在北京理工大学计算机学院副教授马锐看来,人工智能算法对数据的依赖、不确定性、不可解释性等,导致人工智能应用存在潜在的安全风险。
而针对现阶段关于人工智能立法还不完善的状况,西南政法大学民商法学院副教授曹伟认为,可以通过知识产权对人工智能技术的创新进行保护。目前亟需考虑的问题有3个方面,即数据的产权定性;数据的采集、整理和使用规则;人工智能研发的规范与引导。
规制企业伦理道德
有效保护个人信息
隐私利益是什么?清华大学法学院副教授吴伟光认为,隐私利益是竞争中产生的信息独占关系,只要有竞争关系就有隐私利益。
吴伟光认为,人的合作效率越高,其隐私利益越校劳动合同法明确要求劳动者必须提供相关信息,只要合作,就必须信息交换。在人工智能时代,人的社会合作广度和深度都会有巨大的提升,必须与大量陌生人交换信息,隐私期望一定要下降。
中国科学院大学法律与知识产权系副教授尹锋林称,随着科技进步,个人信息内容不断发展丰富。在人工智能时代,行业规范对个人信息保护至关重要,个人信息保护要借助于行业规范。在我国,个人信息保护如果仅靠个人,可能会面临能力不足问题。行业、政府、相关企业应加强合作,共同建立合理的个人信息保护强制性或准强制性标准。
人工智能发展如此迅速,能不能将人工智能应用到司法审判当中?杭州实在智能科技有限公司创始人孙林君认为,如果在司法判决时运用人工智能做辅助,可能面临严肃性悖论。由于存在严肃性悖论,当前阶段把人工智能辅助决策的技术嵌入到审判环节,很难提升案件审理的质量和效率。
人工智能到底会不会帮助法官或律师减轻负担?孙林君提出,打官司会经过咨询、评估、调解、仲裁、审判几个阶段,而老百姓最关心的是胜的概率是多少,可以依据哪些法律法规,有没有相关的案例参考。
也有很多专家和科技界人士对人工智能的发展提出担忧。腾讯公司法务平台部总经理谢兰芳认为,人工智能并不一定100%为人类带来福利。人工智能有了自己的意识后,可能会作恶,成为坏的人工智能。因此,需要将规则、伦理、价值观嵌入其中,规制人工智能的发展。
清华同方集团法务总监苏云鹏建议,企业应加强伦理道德方面的规制,在企业成立伦理道德委员会,所有高科技产品推向市场之前,先经过伦理委员会的论证,并赋予其一票否决权。由于思维视角存在局限性,这个委员会要由不同学科的专家,如社会专家、政府专家、学术专家等共同组成。
发表评论
暂时没有评论,来抢沙发吧~