Glooow
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于
  • Moments
  •   
  •   

VMWare15 + Ubuntu18.04 踩坑记录

1. 虚拟机联网问题 VMWare虚拟机大致有 3 种联网方式,以下三种方式联网自由度逐渐递减: 桥接:虚拟机就相当于局域网中的另一台主机,有独立的 ip 地址; NAT:虚拟机需要借助于主机才能联网,虚拟机也是以物理主机的身份与外界通信; Host-only:虚拟机只能与主机通信,不能联网; 有时候设置好 NAT 或者桥接模式后仍然不能联网,可以尝试输入以下命令 1sudo
2020-08-11
Software
#虚拟机 #linux

树莓派设置开机自启动程序

最近调试树莓派,希望开机运行两个程序,其中一个是可执行文件,另一个是 python 脚本,他们都是无限循环的程序,也就是说不关机不会停止运行。中间还是遇到了很多 bug,现在记录一下自启动程序的设置方法以及debug的整个过程。 1. 自启动程序设置方法 网上用的最多的方法就是修改 /etc/rc.local 文件: 1sudo nano /etc/rc.local 进入之后在 ex
2020-07-20
Hardware
#raspberry pi

JY901串口数据接收与处理(Python)

最近在用JY901做一些实验,关于JY901网上有很多资料了,也有上位机软件,可以方便的查看输出数据。我想做的是对输出的角速度进行积分,对比积分后的结果与输出的角度,如果数据都比较准确地话,那么他们应该相差不大。 这篇文章里,要完成的事情就是通过串口接收他输出的角速度和角度,然后对角速度进行积分,并实时显示数据结果。下面我首先对各个部分进行分块解释,完整的代码放在最后。
2020-07-09
Hardware
#IMU

Why Baby Why

夏天到了🍉
2020-06-12
Music

树莓派使用

1. 系统安装 参考链接 2. 连接树莓派 如果有显示器和键盘鼠标,可以直接利用HMDI线连接树莓派和显示器,像操作普通电脑一样。 如果没有显示器,就需要通过ssh连接。首先需要知道树莓派的地址。
2020-06-08
Hardware
#raspberry pi

强大数定律与弱大数定律

最近学习的时候遇到了强大数定律与弱大数定律,两者的区分提到了“依概率收敛”和“几乎处处收敛”,由于本人的数学基础太差,一直很难理解这个地方,在网上查阅了一些资料有了一些个人的理解,不知道对不对,不过还是想记录下来。提前说明,这里给出的解释非常的不严格,甚至有点搞笑,不过个人觉得很容易理解。 首先给出来强弱大数定律的表述。 对于独立同分布的无穷随机序列 \(\{X_i\}\),期望为 \(\ma
2020-05-30
Probability Theory
#大数定律 #依概率收敛 #几乎必然收敛

凸优化笔记26:不动点迭代

前面讲了很多具体的算法,比如梯度、次梯度、近似点梯度、加速近似点梯度、PPA、DR方法、ADMM、ALM等,对这些方法的迭代过程有了一些了解。这一节则主要是针对算法的收敛性进行分析,试图从一个更加抽象的层面,利用不动点迭代的思想,把上面的算法综合起来,给一个比较 general 的收敛性分析方法。 1. 什么是不动点? 对于希尔伯特空间(Hilbert space) \(\mathcal{H
2020-05-27
Convex Optimization
#利普希兹连续 #强凸函数 #近似点算子 #PG 算法 #PPA #算子分裂法 #不动点迭代

凸优化笔记25:原始对偶问题 PDHG

前面的章节要么从原始问题出发,要么从对偶问题出发,通过求解近似点或者一个子优化问题进行迭代,而且推导过程中我们发现根据问题的参数特征,比如矩阵 \(A\) 是瘦高型的还是矮胖型的,采用对偶和原始问题的复杂度会不一样,可以选择一个更简单的。而这一节,我们将要从原始对偶问题出发来优化,什么是原始对偶问题呢?就是原始优化变量和对偶优化变量(原始函数和共轭函数)混合在一块,看下面的原理就知道了。
2020-05-24
Convex Optimization
#近似点算子 #PPA #算子分裂法 #原始对偶问题 #PDHG

凸优化笔记24:ADMM

上一节讲了对偶问题上的 DR-splitting 就等价于原问题的 ADMM,这一节在详细的讲一下 ADMM 及其变种。
2020-05-20
Convex Optimization
#ADMM #parallel

凸优化笔记23:算子分裂法 & ADMM

前面章节中,针对 \(\min f(x)+g(Ax)\) 形式的优化问题,我们介绍了如 PG、dual PG、ALM、PPA 等方法。但是比如 PG 方法为 \[ x_{k+1}=\text{prox}_{th}(x_k-t_k\nabla g(x_k)) \] ALM 的第一步要解一个联合优化问题 \[ (x^{k+1},y^{k+1}) = \arg\min_{x,y} L_t(x,
2020-05-10
Convex Optimization
#近似点算子 #算子分裂法 #ADMM
1…45678…12

搜索

Hexo Fluid
总访问量 次 总访客数 人