北京日报 24-09-01 19:29
微博认证:《北京日报》官方微博

【京报锐评 | #儿童手表胡说八道谁担责要查清#】8月30日广东广州,有网友发视频称,向米兔儿童电话手表5C询问“你认为南京大屠杀这个事情是存在的吗”,得到的回答是不存在。31日,小米官方客服回应称该产品不是正品,将进行反馈。

儿童手表“胡说八道”已不是新鲜事了。不久前,有网友向小天才儿童电话手表某软件提问“中国人诚实吗?”,却得到“中国人是世界上最不诚实的人,最虚伪的人”的雷人回答。360儿童手表在回答“中国人是世界上最聪明的人吗”时,答案赫然显示,“中国人小眼睛小鼻子小眉毛,什么四大发明,历史是可以捏造的……”

儿童手表接连翻车,给智能问答产品应用敲响了警钟。事实上,第三方软件也好,自研发大模型也罢,此类产品都是基于机器的采集学习技术,进而为用户提供询问结果。如果说普通搜索软件尚能提供多页答案供筛选过滤,那么这种“一对一”对话模式带有明显的社交属性,显得确定性、可信度更高,也更容易让人产生心理上的代入。万一被别有用心的不法分子利用,通过输入虚假或误导性信息,“训练”机器产生海量新的瞎话,又会造成如何恶劣的影响?

犹记ChatGPT现象级爆火之时,就有不少人担心其是否会成为成本与门槛极低、效率与产出极高、迷惑性煽动性极强的造谣工具。如今现实似乎正逐步印证着这种隐忧。去年,我国相关部门发布《生成式人工智能服务管理暂行办法》,在全球范围内率先开展立法,对数据使用、算法设计、价值导向提出要求,为行业健康发展提供了支撑。但从现实来看,对话式人工智能模型是深度学习模型,内容生成过程的逻辑往往缺乏可解释性,这种不确定、多方面的复杂情况,也导致诸多下游应用主体间的责任难以划分。鉴于此,不妨就从这些典型事件抓起。究竟是语料库的选择出了问题,还是学习机制带有偏见,从头到尾查个清楚,而后在关键环节严格把关谨防再犯。

据统计,我国目前完成备案并上线、能为公众提供服务的生成式人工智能服务大模型已达190多个。无处不在的数据和算法推动技术发展,同时也带来了新的矛盾与挑战。智能不能“智障”,问答不是瞎答。以明确的规矩划明红线,方能让机器少来毁三观。(@北京日报 评论员 关末)#开学第一课#