导读 在美国当地时间2023年的7月5日chat GPT人工智能语言大模型的开发商open AI公司正式宣布公司将要投入部分的资源,用来组建一支新的研发团…
在美国当地时间2023年的7月5日chat GPT人工智能语言大模型的开发商open AI公司正式宣布公司将要投入部分的资源,用来组建一支新的研发团队,为了防止人工智能失去控制,确保人工智能对于人类社会没有任何威胁,让人工智能技术可以随时受到监督。
OpenAI联合创始人伊利亚·苏斯克维尔在当地时间7月5日发表的文章中主要是超级人工智能在未来的发展前景,已经远远超乎了目前的预料,如果没有受到一定管制的话,那么很有可能会对人类社会造成一定的威胁,严重的情况下人类都可能因此灭绝,截止到目前为止,公司还没有一套完善的措施来彻底解决人工智能技术。另外他预计比人类智商更高的人工智能在2030年之前就有可能被研发出来,现在社会各界的科技企业都应该共同合作,在此之前研发出更加严格的监管措施,来控制这些超级人工智能。
Open AI公司表示在未来4年的时间内,公司所获得的20%的算力都会用在解决人工智能失控的问题中,另外公司还会特别成立一支研发团队专门负责监管人工智能,公司将这支团队称之为超级一致性团队,目的就是为了打造一个能够随时监管人工智能技术的研究人员团队,再加上公司强大的算力基础进一步扩大监管的范围。
AI安全拥护者康纳·莱希表示open AI公司所提出的监管措施存在着一定的漏洞,因为现在已经达到人类水平的人工智能技术很有可能在没有研发出完善的监管措施之前,就已经对人类社会造成了一定的威胁和破坏,所以在打造人类水平的人工智能之前,就必须要解决一致性的问题,这样才能够彻底将人工智能控制。
未经允许不得转载:87头条 » 为防止AI“失控” OpenAI宣布重大措施