据说 Sam Altman 和 Elon Musk 等人创建 OpenAI 的初衷是为了预防人工智能给人类带来灾难。
如果不想让核武器在某个国家诞生应该怎么做?刺杀核科学家,轰炸核基地,对吧?但是为了预防人工智能给人类带来灾难,所以成立一家公司去研发人工智能?这个鬼话你们信吗?
《球状闪电》中的丁仪说:“……上个世纪初那些人,把释放原子能量的公式和方法给了工程师和军人,然后又为广岛和长崎装出一副天真无邪的伤心模样,多么虚伪。其实,我告诉你吧,他们早就想看那些了,早就想看那些被他们发现的力量是如何表演的……”
“如果超级智能必然诞生,那么应该诞生在我们手上;如果超级智能可以成为强大的力量,这种力量必须掌握在我们手上;如果人类会被超级智能毁灭,那么不如毁在我们手上”——我觉得这才是他们的真正想法。
发布于 北京
