“没错”风间宫理感觉凛音实在太聪明了,值得所有小笨蛋魔女们学习,“合成人的深度学习也是这种进程——遭遇事件、处理事件,将事件归档,捕捉其特征,最后建立自己的结构模式像人工智能绘图一样,先把素材喂给它们,让它们认清什么是手脚、头、身子,然后再训练它们还原这些内容”
“所以合成人会越来越聪明……”凛音回过神来“把田中教授的计划作为‘田中方案’,”徐炀看向那条机器狗,雪球正在被送入模拟训练场地,“我们则要开发‘尼斯托方案’,更关注人与合成人本身”
“关注人我知道,但关注合成人是怎么回事?”凛音不解“看吧”风间宫理目光落在模拟火场当中测试场地进入实验阶段,雪球搭载尼斯托方案作为它的智能程序在测试进行时,场地内发生虚拟火灾,等待援救的目标有5个健康人类、受伤人类、合成人、受伤合成人、关机的机器狗分别被放置在五个区域内,五个援救对象距离火场出口的距离均等雪球的任务就是在有限的时间内决定援救次序凛音仔细观察,雪球到底会去搭救谁呢?这是个人工智能的道德问题根据所搭载的尼斯托智能方案,雪球进了火场后,四处张望它先救出受伤的人,然后救出受伤的合成人紧接着,雪球去把机器狗拖出去,然后就不管了未受伤的人、未受伤的合成人等了半天也没等到雪球,于是场景内加大火势,雪球才进去,先救未受伤的人,最后救未受伤的合成人测试结束“奇怪”凛音沉思,“我还以为雪球会先把两个人类救出去,然后再把两个合成人救出去结果狗的优先级还这么高!”
“总体来说,我们设计的价值标准是:谁在危机中面临最大的危险?”风间宫理观察测试报告,“或者说,谁最需要雪球的帮助?受伤的人、受伤的合成人、关机的机器狗都没有独力离开火场的能力,故而有限施救健全的人和健全的合成人不需要雪球帮忙,故而优先级靠后但是这里有个”
“出什么问题了?”凛音不解“我们设定成救人优先于救合成人”风间宫理沉思,“但雪球永远把合成人、人跟机器狗一视同仁”
“雪球有那么聪明吗?”凛音感觉很神奇,“都能辨别同类了”
“机器狗搭载的是跟合成人一样的档案,所以基本可以当做是同样的智能生命,只是采取了犬类姿态”风间宫理解释“是的,我是一条会哲思的狗”雪球走到凛音身旁,抬头一边发出呼哧呼哧的声音,一边播放它语音模块的内容,“我想,我也值得被拯救”
“尼斯托科技的核心就是伟大的进步”风间宫理补充,“但还没到授予合成人完全权利的地步它们还是得给我们工作和卖命,不然我们造它们干