上周,我去杭州参加了通义实验室和一席办的2026年度开发者演讲活动。
让我印象最深的两位分享嘉宾,一位是学机械的大四学生,跑去给小麦做AI育种。
还有一位是因脑瘫导致构音障碍的算法工程师,他在台上用自己做的AI产品,完成了人生第一场演讲。
屏幕上实时跳出的字幕,不是速记员打的,而是他自己的AI在翻译他的声音。
那个瞬间我突然意识到,互联网天天都在讨论AI又颠覆哪个行业、替代了哪些岗位......
但真正在用AI改变命运的人,可能并不在我们的视野里。
1
先说第一个嘉宾,范文涵。
他今年读大四,机械设计专业的,他借助AI,做了一个AI辅助小麦育种的系统。
听起来是不是八竿子打不着?一个画图纸、跟齿轮打交道的工科生,怎么就跑去管麦子了?
他聊起来缘由,原来,他从小在北方农村长大,家里种麦子。
小时候有一年大旱,地里收成很差,他记得父母从地里回来,坐在门槛上发愁的样子。
那是他第一次感受到靠天吃饭有多脆弱。
上大学后,他高中最好的朋友学了农学,搞小麦育种。
有次俩人聊天,朋友顶着黑眼圈跟他抱怨:做抗逆实验要每两小时记录株高、叶色、分蘖数,几个人轮班熬夜,测完还得把手写数据一行行敲进Excel。
算错一个数,半个月白干。
范文涵就冒出一个念头:都2026年了,为什么一线育种的人还在用最原始的方式跟数据死磕?
他一开始想做个智能气候舱,自动控温控湿,结果发现控环境的设备市面上早就有了
他们跑到农学院实验室蹲了几天,有了一个意外发现:专家们真正头疼的不是怎么养麦子,而是怎么判麦子。
因为育种经验全在老专家脑子里,换个人就接不上。
这才是真实的痛点。
但他们团队没一个人学过农学,也没人是计算机专业。
面对大模型微调,范文涵一开始连代码报错信息都看不懂。
他说那段时间特别焦虑,不是怕学不会,而是实在不知道怎么开始。
最后他们选了千问的开源模型Qwen3-1.7B,原因很实际:参数量小,能跑在嵌入式设备上,而且社区教程足够详细,一个跨专业的人照着做也能上手。
团队折腾了将近一年,系统终于跑通了。输入环境参数和麦苗的表型数据,AI就能输出抗旱评分和育种建议。
人工记录时间缩短三分之二,评估准确率稳定在92%以上。
一个学机械的本科生,带着一群同样不是科班出身的同学,做出了农学专家觉得有用的工具。
2
再说第二位嘉宾,邱生峰。
他的故事更让我觉得,某些瞬间技术确实能还给一个人一些本该属于他的东西。
邱生峰出生时因缺氧导致脑瘫,说话不太清楚,动作也有些不协调。
他从小在重庆长大,和所有孩子一样上学交朋友,后来考上了重庆大学数学系,做了NLP方向的研究,毕业后成为一名感知算法工程师。
从履历看,这是一个很优秀的技术人。
但他在他的演讲里我还捕捉提到了一个细节:他MBTI测出来是ENTJ,一个很典型的外向的型人格。
他天生想交流、想探讨、想和人建立连接。
可现实里,因为发音不清楚,他慢慢学会了在开口之前先评估,值不值得说?别人愿不愿意花时间听?
一个骨子里的E人,被迫活成了I人。
在全中国,有超过一千万人面临构音障碍。
脑瘫、渐冻症、中风、听力障碍,原因各不相同,但困境出奇地一致:不是说不出,是说了以后,世界没耐心听。
2025年底,邱生峰参加了通义实验室的AI向善比赛「小有可为」,发现市面上几乎没有一款成熟的、面向发音不清人群的辅助沟通产品。
绝大多数语音识别工具只能处理标准发音,像他这样的声音,AI根本听不懂。
他决定自己做一款产品,叫燃言。
但实际做起来的过程,全是硬仗。中文构音数据极度稀缺,他拉着三十多位种子用户每天录音标注。算力不够,他一个人跑去北京路演争取资源。
他和伙伴整理了全球六十多篇构音障碍相关论文,做成开源仓库,基于Qwen3-ASR等模型一步步复现优化。
燃言不只是语音转文字,而是一套语音Agent系统,包含实时辅助沟通、语句训练反馈、个人记忆管理。
它能学习用户的发音习惯,理解上下文意图,把不清晰的语音转化成准确的表达。
活动现场,邱生峰站在台上,屏幕上的字幕在他说话的同时跳出来。
他说,这是他人生第一次用这种方式完成一场完整的演讲。
这个瞬间,是整场活动最安静的时刻。
然后,全场响起了雷鸣般的掌声。
3
把这两个故事放在一起看,你会发现一个共同的规律。
不论是范文涵还是邱生峰,他们都不是从技术出发去找问题,而是先碰到了一个真实的、具体的、让人难受的问题,然后回过头来发现,AI工具恰好能帮上忙。
这才是AI普惠真正在发生的方式。
不是等技术下沉到每个人手里,而是有真问题的人,主动伸手去够到了工具。
在一个人人都在追AI浪潮的时代,最稀缺的不是技术能力,而是带着一个真实的问题走到工具面前的勇气。
浪潮很大,但真正的故事,永远发生在具体的人身上。
发布于 上海
