姜岳升回到家后,感觉胸前好像压了🎘👕一块石头,茶饭懒餐。
他一直在不停地思考一个问题,为什么在试验场,人们用肉眼一眼就能看出来机器人的伪装?而机器人确不能🔭🜷。🝂🈙
其实,在试验场,不管机器人是否改变伪装的形式,单个也好、聚集也好,我🔜🁝们人类都能轻松看出来。就好像我们看见一匹正吃草的马以后,我们也能辨认飞奔的马、打滚的马。
这还🌪🁷是因为我们的大脑捕捉📎🙪🍏到🆅🍈了很多机器人捕捉不到的特征。
也就是说,我们还是需要在识别单个机器人特征上下功夫。如🇼🐁果能抓住机器人足够多的特征,不管他怎么伪装,都能一眼识破。
想到这里儿,姜岳升觉得应该彻底改变思路,把重点放在机器人外观特征的建模上,而🐤🁴不是放在环境建模上,环境是千变万化的,我们建模的速度不可能跟得上环境的变化,而我们的目标是机器人、不是环境,只🝢要抓住机器人足够多的特征,就可以以不变应万变。
他突然想起了AI🇳🜨大模型,于是在手机上打开AI大模型终端,输入:请问,监⛘🚧控是如何区分人和其他运动物体的?
很快,大模型的答案来了:
第一、识别轮廓特征,包括十个方位的轮廓特♖征;
第二、识别结构特征,包括肢体部位的相对位置特征和🄑☡🀺比例特征;
第三、识别运动特征,包括站立🉡🈹、走、跑的🚝🔓⛱特征;
第四、识别面部特征,包括瞳孔距离、两耳宽♖度、鼻尖眉梢距离;
第五、识别运动轮廓特征,包括双腿摆🗿动角度、双腿与躯干🖷🗓角度、双⚟💪🔦臂角度、双臂与躯干角度;
第六、识别运动结构特征,包括头部、🗿🗿上臂、腿部位置关系;
看到了大模型上的描述,姜岳升立刻有了主意,因为机器人的结构是模仿人类制造的,识别人的这些特征大多数是可以🏫直接移植过来的。只需要让⚄机器人能够准确地区别人类和机器人不就行了吗?
想到这里,他进入了AI大模型的编程🗿入口,输👊入:“请编写区分人和其他运动物体的程序”
几秒钟后🀹🁭🉂,答案来了,AI大模型显示出一个五千多😜🂐🍽行的完整程序。