密码是DLREMT978
https://pan.baidu.com/share/init?surl=aUbP6Ukun0_yCYDwEjIrbw
视频说明,来自 https://www.youtube.com/watch?v=kYB8IZa5AuE
线性变换:Linear Transformation ,transformation代表一种函数,但这个单词表示需要考虑一种移动(将一个向量移动到另一个位置,或者将一个点移动到另一个点)
而Linear代表,一条直线变换完还是直线,原点不变。
线性变换的时候,可以将原来的向量坐标分解,然后再对每个轴进行处理。
矩阵方式表示坐标变换:
一个模拟环境:https://gym.openai.com/
一套教程:https://mofanpy.com/tutorials/machine-learning/reinforcement-learning/intro-q-learning/
来自 https://www.youtube.com/watch?v=2xATEwcRpy8 和 https://www.youtube.com/watch?v=JgvyzIkgxF0
Agent会进行Environment的探索,agent可以感知environment的状态state(s),agent采取的行动action(a)会影响Environment,而这个行动会有一个reward(r)。
https://zhuanlan.zhihu.com/p/27860483
主动对环境进行试探,并根据试探后,环境反馈回来的结果进行评价、总结,以改进和调整自身的行为,然后环境会根据新的行为作出新的反馈,持续调整的学习过程。
环境(Environment):环境会接收Agent执行的一系列的动作(Action),并且对这一系列的动作的好坏进行评价,并转换成一种可量化的(标量信号)Reward反馈给Agent,而不会告诉Agent应该如何去学习动作。Agent只能靠自己的历史(History)经历去学习。同时,环境还像Agent提供它所处的状态(State)信息。环境有完全可观测(Fully Observable)和部分可观测(Partial Observable)两种情况。
https://zhuanlan.zhihu.com/p/30315707
reward:
Goal
History 和 State 的关系
来自 https://www.youtube.com/watch?v=DG7YTlGnCEo ,Singular Value Decomposition (SVD) and Image Compression
我们有些时候需要做一个变换,比如:
在这种情况下,我们需要进行旋转、水平和竖直方向的拉伸和压缩,并且再次进行旋转。
而矩阵可以表示一个线性变换,比如:
有一些特殊的矩阵:
并且可以进行分解:
0.44很小,所以可以考虑把它去掉(变为0)
因此可以降维:
而且可以将矩阵分解之后压缩存储:
而其实矩阵可以用SVD的方式分解出来:
所以可以考虑把后面的比较小的去掉。
如果不是一个方阵,其实也可以做:
基于之前的SVD技术,可以进行图像压缩。
先对原始图像进行分解,只保留一行一列的情况下:
而之后已经基本上等于0了:
如果保留前3项,就已经和原图很像了;如果保留前4项,就已经一样了。
内容来自 How does Netflix recommend movies? Matrix Factorization ( https://www.youtube.com/watch?v=ZspR5PZemcs ),讲得非常清晰易懂
代码在 https://github.com/yanneta/pytorch-tutorials/blob/master/collaborative-filtering-nn.ipynb
我们可以假设每个人和每个电影有内在的一些feature,假如考虑两个feature,Comedy和Action:
左边的两个矩阵相对较小,而右边的矩阵相对较大。这样做也可以起到节省存储空间的作用。
也可以用图的方式来观察,相当于是有中间的feature部分:
分解的时候可以用梯度下降的方式,先给一个随机值再更新,使用平方求和的方式算误差。
挂载磁盘:
解压和压缩:
如果有很多图片的数据集,应该直接将这些图片的压缩包用上面的方式解压到挂载的磁盘上,如果直接从drive读取所有图片是很慢的!
也可以使用git clone或者wget命令
使用powershell,用Remove-Item -Path .\desktop.ini -Force
mysql -u用户名 -p密码 -D数据库名 -e"sql 语句"
注意大小写,注意字母这里没有空格