3月底,一群人工智能领域重量级专家和行业高管联名签署了一份公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。3月31日起,意大利禁止使用ChatGPT,德国、加拿大等国也纷纷出手,表示出于数据保护方面的考虑,将禁止使用ChatGPT或对人工智能采取更加严格的监管。
他们担心什么?是人工智能技术在信息泄露等方面可能造成的社会性风险。这种风险还会随着其庞大的用户规模进一步放大,危害个人隐私和数据安全,一旦被别有用心的人利用,带来的恶劣影响难以想象。而在不远的未来,由算法所引发的偏见和歧视,还将影响人工智能判断的公平性。
人们的普遍认知里,每一次科技革命都会使社会生产力获得巨大飞跃,促进生产生活方式发生改变,从而推动世界经济的发展,也提高了人民的生活水平。然而,随着科技发展不断深入,触及的未知领域也日渐增多,人们在享受科学技术带来便利的同时,也极易掉入由技术编织的美丽陷阱。只有用好规则和法律的利剑,才能斩断人工智能技术野蛮生长的藤蔓。
当前,人工智能存在的伦理问题已经引发全球关注。联合国教科文组织近日发表声明,行业自律尚不足以避免这场科技伦理危机,呼吁各国政府尽快实施该组织通过的首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》。建议书提供了工具,以确保人工智能的发展严格遵守法律,避免造成危害,并在危害发生时启动问责和补救机制。
我国也在抓紧制定与科技伦理相关的规范和标准。日前,科技部发布关于公开征求对《科技伦理审查办法(试行)》意见的公告。办法提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,并引入专家复核程序,部分算法模型、自动化决策系统需要专家复核。
科技向上更要向善,以不动摇人类生存为基础,确保科技方向符合全人类共同的价值取向,才能为人类文明进步提供不竭动力。数字时代的人工智能革命正在全球范围内迅速传播,而ChatGPT引发的一系列争议,恰恰说明保护数据隐私、规避偏见和歧视等问题,将成为人工智能深度融入社会生活的重要前提。
政府、相关组织机构和企业等需加强合作,平衡好科技创新效率和伦理监管力度,特别是要对科技活动主体的社会责任与行为准则进行规范,避免人工智能技术被滥用,让科学技术成果更好地造福于民。
声明:转载目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。文字、图片版权均属权利人,如涉及作品内容、版权和其它问题,请及时与我们联系。
2017-10-12 1426
2019-09-10 2386
2017-12-23 2701
2022-11-16 609
2018-05-30 1324
2018-12-21 1598