阅读历史 |

分卷阅读81(1 / 2)

加入书签

、半监督, 机器自己分析特征、独立思考。给一万张猫的图片, 说“这都是猫”, 它就懂了,再给一张它没见过的,问“是不是猫”, 它会说是。人们给它正确答案的数据集, 它便可以进行学习, “看”的越多会的越多,不断优化自身能力。因此,“人工智能”定义十分清晰,区别是真·人工智能还是噱头只需要看它有没有模仿人脑。

  然而,对每一层都在提取什么特征,以及机器为何要做这些事情、为什么能得出结论,人类无法解释。根据输出,有些提取简单易懂,比如勾勒边缘、模糊图片、突出重点、锐化图片……可是,在很多时候,人类完全get不到!看着某层下来以后图片所变成的样子,只能叫一声“什么鬼!”有时人类只能提出几个特征,AI分出好几百层!

  它给了人空前的可能,也给了人无尽的困惑。

  就像人类无法摸清大脑的工作原理一样,他们同样无法摸清AI的工作原理。

  训练AI这种方式为何能行?它是如何学的?信息存在哪里?为何下此判断?不知道。

  它好像在玄幻境界。码工时常觉得自己正在养蛊,贼刺激,给蛊虫喂个这个、喂个那个,一掀盖子,嚯,出来一个超厉害的东东!

  有人说,让AI向人解释一个东西,相当于让人向狗解释一个东西,听着so sad。

  人类历史充分表明,只有一个决策可以解释、分析,人才可以了解它的优点缺陷,评估风险,知道它在多大程度能被信赖。

  很多专家说过“必须质疑人工智能为何做出一个决定……”“难道,无人汽车每回出事,企业都说不知原因、AI让它这么干的?”

  何况,不幸的是,如同大脑会出错,AI也会出错。

  于是问题来了:我们能信任AI吗?我们能在多大程度上相信AI?我们能在生死攸关时信任AI吗?

  当然,也有学者表示:“它能做到就足够了!”“大脑一直为你工作,你也一直都信任它,即使并不知道它是如何工作的。”

  目前,各国科学家正致力解开黑箱,政府、行业协会也对此有要求,已经取得一些成果——不少东西都是数学。

  阮思澄是一直觉得,这种现象十分正常,没有那么邪乎。在人类的文明当中,往往实践先于理论。比如,老祖宗在打造刀剑时、发明火-药时,清楚地知道原理吗?NO!都是东西先出来了,能work了,大家才开始研究原因。

  AI也是啊!慢慢来嘛。

  不过,虽然如此,攻城狮们写程序时,也能根据他人经验,知道大概该怎么做。AI能自己学,但是,攻城狮们需要设置许多参数,比如用哪一种激活函数;如何搭建网络结构;分别设置多少卷积层、池化层、全连接层,如何排列架构;用多少个卷积层;用哪一个池化方式;选择多大以及多少卷积核、多大卷积步长和池化步长、多大学习率,又分别从哪层开始、到哪层结束……[注]。也因为没道理可讲,各种奇奇怪怪的结构都有了。层数绝非越多越好,层数越多,说明运行时间越长、传递错误几率越大。

↑返回顶部↑

书页/目录