无障碍阅读

人工智能

ai,chiatgpt,OpenAI,中国AI

关于人工智能课程大纲的信息

  感谢关注天善智能,走好数据之路↑↑↑

  欢迎关注天善智能,人工智能课程大纲我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定人工智能课程大纲!

  对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信人工智能课程大纲:tstoutiao,邀请人工智能课程大纲你进入数据爱好者交流群,数据爱好者们都在这儿。

  与 tensorflow 版本类似,我们要先定义一个能把输入变成输出的函数(输出函数)和一个用来训练我们模型的函数(训练函数)、然后定义一些函数评估我们的模型。由于不像 tensorflow 那样把***终损失化为人工智能课程大纲了一个数、所以我们的输出函数(前向传导算法)相比之下形式很简单:

  def_get_activations(self,x):

  _activations=[self._layers[0].activate(x,self._weights[0],

  self._bias[0])]fori,layerinenumerate(self._layers[1:]):

  _activations.append(layer.activate(_activations[-1],self._weights[i+1],self._bias[i+1]))

  return_activations

关于人工智能课程大纲的信息

  需要指出的是,由于 BP 算法是自己实现的、所以需要把激活值记录下来以减少 BP 算法中的计算量(因为许多激活函数【比如 Sigmoid】的导函数用函数值来算会比用输入算块一些)

  训练函数的话就比 tensorflow 版本要复杂了、因为要手动进行梯度下降:

  def fit(self,x=None,y=None,lr=0.01,epoch=10):

  # Initialize

  self._add_cost_layer()

  self._init_optimizers(lr)

关于人工智能课程大纲的信息

  layer_width = len(self._layers)

  # Train

  for counter in range(epoch) :

  # 如有必要,更新优化器中的参数

  self._w_optimizer.update() ; self._b_optimizer.update()

  # 调用前向传导算法获取各个激活值

  _activations=self._get_activations(x)

  # 调用反向传播算法获得各个局部梯度

  _deltas=[self._layers[-1].bp_first(y,_activations[-1])]

  for i in range(-1,-len(_activations),-1) :

  _deltas.append(self._layers[i-1].bp(_activations[i-1],self._weights[i],_deltas[-1]))

  # 调用相应方法进行参数的更新

  foriinrange(layer_width-2,0,-1) :

  self._opt(i,_activations[i-1],_deltas[layer_width-i-1])

  self._opt(0,x,_deltas[-1])

  可以看到里面用了大量 Optimizers 相关的东西,若有需要的话可以参见这篇文章

  (地址:http://www.carefree0910.com/posts/5***23cf0/ )

  这里我们只需知道 self._opt 这个函数能够利用激活值和梯度帮我们更新相应的变量就行

  可能会有观众老爷注意到我在定义 _deltas 这个存储梯度的列表时调用的是 bp_first 函数,这是什么意思呢?不知大家还记不记得、在 BP 算法推导过程中、***后一层(亦即 CostLayer)的梯度计算和其余层是不太一样的,这里这个 bp_first 即是 CostLayer 对应的 BP 算法

  模型搭好之后就能跑一跑并评估一下了。我写了一个小的可视化函数并生成了一个螺旋线数据来进行测试和评估,效果大概如下:

  模型结构是两层 ReLU 各 24 个神经元,CostLayer 是 Softmax + Log Likelihood,Optimizers 选择的是 Adam。迭代了 1000 次,耗时 1 秒左右。值得一提的是,用 tensorflow 来训练的话要 3 秒左右(GPU 版本),观众老爷可以想想这是为什么 ( σ'ω')σ (事实上,tensorflow 本身不适合用于训练规模太小的模型、不仅限于这一种情况)

  以上,一个完整的纯 Numpy 实现的神经网络结构就搭建完了,合共 150 行 Python 代码,比 tensorflow 版本的要长一些

  希望观众老爷们能够喜欢~

    手机扫码访问

    本文链接:http://www.0086ai.com/ai/396.html 人工智能信息尽在:www.0086ai.com

    分享到:
    ©
    Powered by Z-BlogPHP & Yiwuku.com

    遇到问题?请给我们留言

    请填写您的电话号码,我们将回复您电话

    湘ICP备2023016929号-1