机器学习实验:反向传播算法
最近学习了反向传播算法,在此记录一下实验过程。 理论 什么是反向传播 反向传播的“反向”与神经网络前向传播相对应,前向传播是从输入层到输出层的过程,反向传播是从输出层到输入层的过程。 我们知道,神经网络前向传播是将 输入(input layer) 通过一系列的 加权求和(z=wx+b) 和 非线性变换(激活函数) 得到 输出(output layer) ,而这个过程中的 权重(weight) 和 偏置(biase) 是需要通过学习得来的。在最初的阶段,这两个参数都只是随机的初始化值,而通过利用 训练集标签(label) 与 用初始值预测的结果 之间的 差异(Loss) ,调整 权重和偏置,使其未来预测的正确率变得更高 的过程,便被称为反向传播,这也是反向传播的意义所在。 反向传播的数学原理 反向传播算法以微积分中的链式法则为基础,其核心在于计算损失函数关于各权重和偏置的梯度,进而更新这些参数,使神经网络的预测更接近真实值。 假设我们有一个多层神经网络,其损失函数为 LLL,用于衡量网络预测值与真实标签的差异。第 lll 层的权重矩阵记为 WlW^{l}Wl,偏置向量记为...
博客编辑指南
该文章主要汇集hexo操作指南及相关说明文档 创建新文章并发布 创建新的帖子 1$ hexo new "My New Post" More info: Writing 本地查看 1$ hexo server More info: Server 提交,类似于git add . 1$ hexo generate More info: Generating 部署,类似于git commit 1$ hexo deploy More info: Deployment Hexo官方说明文档: https://hexo.io/zh-cn/docs butterfly博客网站: https://butterfly.js.org
My first blog ——后续计划
First Try 第一次尝试建立博客,感觉还算简单的,买个域名,套个vercel的服务器就能用。 反正是在vscode本地编辑的,还可以上传到github上,应该不用担心数据备份问题,大不了用U盘拷一下。 这种个人博客,说实话也就我自己会看,真的会有其他人访问吗? 后续计划 目前正在学习CS的专业课,包括机器学习、计网、操作系统啥的,或许我会发一些机器学习相关的学习笔记,以及一些项目、科研的记录。 下面是博客的初始页面,截个图记录一下: 第一次尝试,还挺有意思的,希望能坚持下去。