AI推理模型的滥用风险

来源:csdn博客 https://blog.csdn.net/2403_89468751/article/details/144579969

在英国《金融时报》近期的一次采访中,OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)向采访者表示,由于公司旗下的o1模型具备了先进的功能,公司在向公众推出它时,需要特别“谨慎”。

作为近年来风头无两的科技公司,OpenAI可以说站在了行业的潮头浪尖,正准备雄心勃勃的大展拳脚。作为公司最新推出的最新款AI推理模型,o1模型已经具备了逐步推理的能力。而这次的采访,其实等同于OpenAI官方承认了自己旗下的产品,确实具有某种不容忽视的风险。

已经有不少科学家曾经公开对此表示过担忧,如果具备更先进功能的AI软件落在一些危险分子的手中,势必会带来更高的滥用风险。甚至连OpenAI自己的系统评估工具,也将新模型对化学武器、生物武器、放射性武器和核武器相关问题的风险定位为“中等”。

科技的进步让人们正在享受着史无前例的便捷生活。可我们不能忽视这种便捷背后的隐忧,风险从来都是和收益相伴而生。技术的进步,让别有用心者利用科技作恶的能力也获得了极大的提升。事实上,人类理性的进步远远没有赶上科技进步的速度,我们真的能够驾驭我们自己创造出来的这个庞然大物吗?我想这个问题,值得很多人去细细思考。

人类学家胡家奇在《拯救人类》一书中提到:工业革命以来的两百年,人类狂飙突进的实现了过去上千年都无法完成的梦想。然而我们理性思维的进化,其实和过去并没有什么明显的不同。波谲云诡的政治斗争,残酷血腥的战争内乱,持续百年的民族冲突,每一天都在这个星球上演着。科技的进步,让战争双方手中的武器,从刀剑变成了枪炮,可不变的,是人性中的阴暗,有冲突,便会滋生出仇恨,一个被仇恨所扭曲的人,又会利用身边如此便捷的技术手段,做出什么可怕的事情呢?

秦人不暇自哀,而后人哀之,后人哀之而不鉴之,亦使后人而复哀后人也。站在这个历史的十字路口,人类该何去何从?我们也许真的要好好考虑,能够为我们的后人留下些什么了。