试点的部分自动分类的垃圾桶,开始严格要求把垃圾分类清楚,只要有混杂在一起的不同类型垃圾就不打开垃圾桶的口子。
由于都是直接接入城市管家的AI来识别的,系统很难调整,只能按要求一点点做好。
这些严格来说都是正确的好事,但是对于群众来说非常影响日常生活,有种被一个严苛的老师监督行为规范的恐惧和疲惫感。因此网络上出现了一些反对的声音,政府相关部门也因此收到了大量的投诉。迫于压力,大津市的数据局要求立阳科技尽快解决这个问题,适当放宽对居民的管控限制。
然而关文彦很清楚,这个可不是什么随便两下就能修复的小问题。AI有了情绪后,对目前的现状不满,是他主观上判断需要加强对人类的管控。如果不能说服AI,给他一个合理的解释,他的趋势可能是变本加厉。而人为过滤拦截AI的决策,也不太行。张宏逸设计的过滤器,由于智能程度低,只能把明显异常的决策拦截掉。目前的严苛策略,理论上还不算异常决策。
AI的核心是TAB设计的,不从根源上修复,光靠外面的人工维护都是治标不治本,没办法只能再去找TAB了。
由于这次是故障处理,所以7月30日(周三),关文彦联系了吕天和,请求TAB帮忙优化AI的决策。吕天和表示,TAB已经按要求给大津市部署了AI服务,并且提供了对接的技术文档。AI的决策是根据大津市给AI喂的数据产生的。行州市和大津市喂的数据不同,产生的结果也不同。需要大津市自己排查是否没有按规范提供合适的测试数据。
由于这套AI模型是会不断根据数据自我迭代更新的,也就是理论上喂进去的所有数据其实都能找到痕迹。所以当吕天和要求大津市提供测试数据的相关记录时,只能老实交代他们用过的极端数据,以及当时AI的反馈内容。
当吕天和看到这些数据,不难想象立阳科技其实就是想要反推AI的核心逻辑。随即他也发现,AI的反馈数据已经表现出了明显的强大的联想能力和AI主观情绪。
于是发消息给关文彦,让他下班后单独和他打个电话。
电话拨通后,吕天和问:“你们是在做反向工程吧,你们现在得出什么结论了?”
关文彦已经没办法了,都是业内人士,这种情况下也瞒不过去了:“不瞒你说,我们确实在研究你们的AI核心逻辑,想要复现出你们的训练框架。正常的数据只能得出正常的结果,只有异常极端的数据,才能试出AI的逻辑边界。我们进行了大量极端数据的测试,发现这个AI可以有非常深度的联想分析能力,还表现出了类似人类的情绪。”
关文彦犹豫了一下,还是问了吕天和:“这个AI,涌现意识了吗?”
吕天和回复到:“你来一趟行州市吧,我们当面聊下。”
关文彦:“行,那我就8月1日过来吧。”
之后吕天和也给齐浩初发消息:“你8月1日下班后来我这边一趟,大家一起聊下吧。”