“它连曹操有几个儿子都能答错,我却差点把毕业论文交给它写。”
昨晚,一个历史系学弟把ChatGPT的答案截图甩群里:曹操只有3个儿子,曹冲还“英年早逝于建安十三年”。底下一排“哈哈哈”瞬间刷屏。可笑着笑着我就笑不动了——上周我让它帮我补一段康熙“九子夺嫡”的代码注释,它同样甩给我13个皇子,还贴心地排了序。我照单全收,直到刚才才惊觉:康熙其实生了35个,活下来的20个,真·夺嫡的只9个。要不是学弟踩坑,我这份作业交上去,老师能把我直接打到“夺嫡”现场。

更离谱的是,我回头再追问,它立刻改口:“曹操有25子。”语气淡定得像刚才说“3个”的不是它。那一刻我深刻体会到什么叫“一本正经地胡说八道”——它根本不记得自己两秒前撒过的谎,也毫无羞耻感,因为骨子里就是一串概率。它不怕打脸,打脸的永远是用它的人。

有人说,那就等GPT-5,幻觉率会降。我信,但我更信另一件事:只要“猜对有糖吃,承认错误没奖励”这套评分机制还在,幻觉就永远是它的生存策略。区别只是话术更圆润,错误更隐蔽,坑得更高级。到那时,我们可能连“被忽悠”都察觉不到。

所以,我给自己立了三条铁律,也分享给屏幕前的你:

1. 让它写可以,让它审不行——交出去之前,自己先跑一遍、查一遍、想一遍。2. 凡是它给的数字、人名、年份,默认标红,必须二次确认,哪怕只是“曹操几个儿子”这种小儿科。3. 把AI当草稿纸,别当它当答案纸。草稿可以潦草,答案必须自己签字。

写完这段话,我回头把那段康熙注释全部删掉,老老实实打开《清实录》手打。键盘敲得生疼,但心里踏实——出错算我的,至少不会被一段代码或一句“3个儿子”当众处刑。

AI再强,也只是把镜子擦得更亮;走神的,永远是照镜子的人。

相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体104037