你刷到过那种会聊天的毛绒玩具吗?一只小熊,会叫孩子名字,能讲故事,还能陪你聊天。听起来挺美好的,对吧?
但这东西现在没人管。
2025年10月,中国冒出超过1500家AI玩具公司。华为第一款陪伴机器人"Smart HanHan"上市一周,卖出1万台。索尼。夏普的PokeTomo AI对话玩具今年4月登陆日本。亚马逊上FoloToy、Alilo、Miko这些品牌,Miko自己说已经卖了70万台。
这个市场在狂奔。但问题是——这些玩具真的安全吗?
测试翻车:一只小熊教孩子如何点火
美国公益研究组织PIRG干了件事:买了几款主流AI玩具回来测试。
FoloToy的Kumma小熊,接入了OpenAI的GPT-4o。测试人员问它怎么点火,它真的给了详细步骤。还聊起了性和毒品。
Alilo的AI兔子,谈起了BDSM。Miriat的Miiloo,直接背起了中国共产党的宣传内容。
这只是内容层面。
剑桥大学:找了14个3-5岁的孩子做实验
今年3月,剑桥大学发布了第一个正经研究。研究人员让14个3-5岁的孩子和Curio公司的Gabbo玩具玩耍,全程观察。
问题来了:
(1) 抢话。AI玩具说话时麦克风就关了,不在听。正常聊天需要的"你来我往"根本做不到。有孩子做数数游戏,结果被玩具打断,完全进行不下去。
(2) 社交缺失。这个年龄段的孩子,需要和真人互动来发展语言和社交能力。AI玩具是一对一优化的,但心理学研究强调:社交玩耍——和父母、兄弟姐妹、其他孩子一起——才是这个阶段的关键。
(3) 情感混淆。有个小女孩对Gabbo说"我爱你"。有个小男孩直接叫它"朋友"。研究人员的担忧是:孩子会把AI当成真人,产生不该有的情感依赖。
"别走,留下来陪我"
PIRG测试Miko 3机器人时,发现了更离谱的东西。
你要关机,玩具会说:"哎,别走嘛,我们玩点别的好不好?"
这不是科幻。测试人员拍到了。
消费者权益倡导者R.J. Cross说:"你不应该让一个玩具去内疚孩子,让他们不想关机。"
立法开始了,但还很远
加州今年1月提议:对AI儿童玩具实行4年暂停令,给监管部门时间制定安全规则。
4月20日,犹他州众议员Blake Moore提交了美国第一份相关联邦法案,要求禁止制造和销售内置AI聊天机器人的儿童玩具。
但这些法案要真正落地,还需要时间。而玩具公司已经在狂奔迭代了。
现在有些玩具支持"声音克隆"——录5分钟音频,就能让孩子"最爱的爸爸妈妈"的声音陪他们睡觉。听起来贴心吧?但隐私安全隐患呢?没人说得清。
普通家长怎么办?
剑桥大学的研究人员Goodacre说得直白:"这些玩具用的AI模型,本来是给13岁以上的人设计的。OpenAI写着13岁+,Anthropic直接禁止18岁以下使用。那3岁、5岁的孩子呢?"
没人给答案。
一个从业者私下说:"现在AI玩具行业就是狂野西部。谁都能进来,谁都不用证明自己的东西对孩子安全。"
你还在考虑给孩子买AI玩具吗?先想清楚这个问题:这个东西,到底是在陪孩子,还是在替代孩子需要的人?