首先明确欧拉格式和龙格库塔算法是用来干啥的,他们都用来解决同一个问题: 求解常微分方程 本文所作的的各种概念均有简化,可能与学术界不同,尽可能简单的理解。 常微分方程一般长这样: 可见y的导数由x和y共同表示。 现在我们的任务是求出y函数,或者说能够通过y0得到许多个y函数上的点y1, y2, y3 ... yn,从而可以用插值等方法构造出y的多项式来,总是就是要能够得到y的信息。 朴素欧拉格式( […]
首先明确欧拉格式和龙格库塔算法是用来干啥的,他们都用来解决同一个问题: 求解常微分方程 本文所作的的各种概念均有简化,可能与学术界不同,尽可能简单的理解。 常微分方程一般长这样: 可见y的导数由x和y共同表示。 现在我们的任务是求出y函数,或者说能够通过y0得到许多个y函数上的点y1, y2, y3 ... yn,从而可以用插值等方法构造出y的多项式来,总是就是要能够得到y的信息。 朴素欧拉格式( […]
上一节《[Pytorch]机器学习入门项目笔记:手动实现线性回归(3)》写过手动实现线性回归,其实是半自动啦,因为使用了自动微分,但是却没有自动优化,也没有神经网络。只有单个的w和b,这样的网络容易出现过拟合或者无法拟合的问题,这一节写一下利用NN(神经网络)来实现线性回归。 首先引入需要的库文件 定义数据 这一步是创建出两个tensor,x是一个50 x 1的列向量,每个元素取值范围是[0, 1 […]
这是一个项目实践,通过自动微分、反向传播的方式来实现一个线性回归算法。 引入torch库 定义超参数 超参数就是在训练开始前需要预设的一些参数,这些参数会很大程度影响训练的速度和质量。 加载数据 这里随机生成一些点就可以了,根据函数表达式y = 3 * x + 0.8来构建x和y,定义域为[0, 1]。 x和y都是一个大小为[500, 1]的矩阵。 设置参数 这两个参数\(w, b\)就是我们要更 […]
之前写过《记录PYTHON 3的一些基础语法》,现在来拓展一下知识和强化代码功底。 enumerate()函数 enumerate() 函数用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列,同时列出下标和数据,一般用在 for 循环当中。 Python 2.3. 以上版本可用。 生成随机tensor矩阵 随机矩阵通常作为机器学习的初始参数矩阵。 输出tensor矩阵形状 输出t […]
记录Pytorch的autograd功能,可能涉及的函数有: tensor.requires_grad_(True) #动态修改跟踪 d = torch.autograd.grad(z, y, grad_outputs=torch.ones_like(y)) z.backward() #反向传播 创建矩阵Tensor 下面是两种创建Tensor的方法。 矩阵乘法 直接写 x * y得到的是哈达玛积 […]
记录一下在学习图片分类时遇到的一些问题,还有一些函数、参数做一些笔记。 常用的库引入 数据集的结构 自己要建立一个图片数据集的话,假如我有一个名字为dog_cat的文件夹,那么这个文件夹就是root,也就是作为root参数传入到ImageFolder函数中。 一定要建立子文件夹,label是根据子文件夹的序号自动标记的(从0开始标记)。 比如下面的0dog中的所有图片的label都是0,而1cat […]
Anaconda是一个环境配置工具,最近在做机器学习相关的课题,所以记录一下Anaconda的一些使用方法和常用指令。 下载 从清华镜像源下载:Index of /anaconda/archive/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror 越往下,版本越新,windows64位安装后缀为“windows-x86_64.exe”的,注意选择一个空间较大 […]
在计算机中,所有数字都用0/1二进制表示,编码一般分为“原码、反码、补码”三种。 正数 正数的原码、反码、补码都一样,对于纯小数也一样。 比如 \(5 = (101)_{2}\) 原码:\((101)_{2}\) 反码:\((101)_{2}\) 补码:\((101)_{2}\) 比如 \(0.25 = (0010)_{2}\) 原码:\((0010)_{2}\) 反码:\((0010)_{2}\ […]
Eriktse
18岁,性别未知,ACM-ICPC现役选手,ICPC亚洲区域赛银牌摆烂人,CCPC某省赛铜牌蒟蒻,武汉某院校计算机科学与技术专业本科在读。
COPYRIGHT © 2022 ErikTse Runtime. ALL RIGHTS RESERVED.
Theme Kratos | Hosted In TENCENT CLOUD