编译 / VRAR星球 R星人
外媒报道,当地时间6月19日,OpenAI前首席科学家、联合创始人伊尔亚·苏茨克维(Ilya Sutskever)宣布创立一家名为“安全超级智能”(Safe Superintelligence)的人工智能公司,该企业旨在开发比人类更聪明但不危险的人工智能技术。
据彭博社19日报道,自五月中旬苏茨克维宣布从Open AI离职后,这是他首次透露自己在人工智能领域的新项目。据公司官网介绍,其目标和产品只有一个:安全的超级智能。该公司将SSI视作唯一的重点,在尽快提高性能的同时,也会确保安全性始终处于领先地位。新公司还强调,所追求的安全、保障和进步不会受到短期商业压力的影响。
Ilya Sutskever对媒体表示,“这家公司的特殊之处在于,它的第一个产品将是安全的超级智能。在此之前,它不会做任何其他事情。它将完全不受外界压力的影响,不必处理庞大而复杂的产品,也不必陷入竞争激烈的赛跑中。”
商务合作:13146398132
媒体合作:13341147250
爆料投稿:editor@vrarworld.cn
版权声明:本文为VRAR星球原创,任何单位及个人未经授权不得转载,否则将依法追究侵权责任。
如需转载请联系13341147250 / editor@vrarworld.cn 申请授权,转载时请注明来源并保留VRAR星球原文链接。
本文部分图片及视频来源于互联网,如涉及侵权请联系我们删除。