4.12有感今天和卓兄交谈后 收获不少 人生真的很多时候就是和机器学习一样 我们喂入不同的数据 有时候输出的就是相同的结果 有些模型就是如此 你又怎么去改变他呢
这件事情差不多你也可以放下了 这个社会很险恶 这个道理你要懂 有时候这个谈恋爱真的和选导师是一样的 哈哈哈哈哈 有点不可信吧 卓哥确实驳倒了我的那个结论 你说什么谈一人终一生 这只是在你假想了一个很适合你的人 其实真的现在发现谈恋爱这个东西是真的需要经验的 你要懂得怎么去谈 在谈的途中守护好这个女孩
当然,这都是后话,大一就想着好好学习就好了,我觉得,好好提升自己,没有什么利益关系的东西不需要在乎,在乎这么多干嘛都是小事,兄弟,好好提升自己才是正道。
好好想着怎么发论文 好好想着怎么搞好绩点 好好想着怎么提高技术 这才是硬道理
3月反思3月已经过去了,这个月也算学了不少东西吧,前端知识,一丢丢算法知识,transformer底层架构,搭建pytorch环境…现在很多想不起来了,但说实话也算有点摆烂了,并没有像学长那么勤快。大学你要真的有所成绩,其实大家都是没有周六周日的,这个事情你要清楚。
今天是31号 刚和鹏哥聊了很久,其实说到底能力最重要,现在的实力比当年他们那一届差远了,
我目前能做的就是不断挤时间,全部兼得,特别是我想做科研。其实大家很苦,不管是说yx学姐还是zp学长还有等等很多优秀学长学姐,他们都是不断努力才拥有现在的成果的
我问过他的建议,比赛还是多参加,因为现在对我来说困难是因为不够熟练,熟练了可能就是几天的事情了,像他们造一个作品可能就是半天的时间
我提了一个问题:“现在主要项目都是他在做 我们做的工作感觉就和你上面说的技术搭架好像关系没有特别大”
Answer:”因为时间比较赶 你们只能做这种活,你们只能比完赛再去自己研究 都是这样过来的
我觉得现在就是不断学 瞄准目标 哪有这么多睡意 只不过是自己懒惰的借口罢了 加油吧 无暗 我相信你会站在很高的舞台并且保持努力的
前言:配环境还真是技术员们的一大难题,每次配环境看着视频以为很简单,结果自己出现各种各样的错误,我本来是看了小土堆的视频来配置Pytorch视频的,但其实对现在已经不太适用了(仅仅代表个人看法)
Pytorch环境配置1.下载anaconda3
www.anaconda.com
这个正常在网站上安装就好了,但是要注意盘别乱安装。我就是第一次安装在D,然后后面环境又在C导致错误了。不妨就按照系统的放在C盘,之后也很OK。
如果想使用anaconda的历史版本 (https://repo.anaconda.com/)
下载过程可能中间会卡住一段很正常,耐心等待就好了。
2.安装完成后在菜单的Anaconda Prompt 中运行指令:conda create -n pytorch python=3.9
这个地方为什么是3.9 我觉得有点讲究的 我刚开始就是按照视频的3.6,后面发现没用。
后面遇到y/n 一直按y就好了
3.安装好后可能每次进入都是base环境 这个时候就需要记住一个指令:
conda activate pytorch
这个时候左边的(base) 就 ...
To Future现在已经是三月二十一日凌晨一点了,和赫哥聊天从十点钟聊到十二点多。不可否认的赫哥是我学习路上的引路人吧,我觉得可以算是我师父了,只是他比较谦虚,以学长的方式敬称。看的出来赫哥是一个很有野心的人,技术和学术界两脚都站。我其实对于学术和技术这两方面其实都是模糊状态,和他聊完后,有以下几点感受:
1.坚定学术方向
他举例子很简单,你好好干学术,之后薪资待遇。他说带你到深圳广东那边逛一遍,你会发现技术根本赚不了多少。其实最终管人的人才是不变的,这一点你要先意识的到,才能更好的想好未来该干的事情。技术是在不断创新的,但是你管理层的人很难发生改变的。没说你一定要读书读到博士,但至少要硕士毕业吧,把你自己的上限提高,以一个南京大学在绿盟工作的案例给我举例了。好好干学术,跟着老师学,跟着师兄干。
2。对钱的理解
赫哥说了如果真的需要用钱,可以去他那边干,给你开几千块的薪资。其实今天干了一天你发现,自己也没学到啥,干这个什么线上录播课,纯tmd浪费时间,那么多规则,还不如挣个家教来的实在。
谈到家教这个事情,赫哥也有比较不错的看法。你现在先跟着老师好好干,好好学,混个半年到时候熟悉 ...
1.特点使用==注意力==来提高这些模型训练速度的模型(最大的好处源于The Transformer如何使自己适合并行化)2.介绍Transformer抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。
RNN计算限制:1.简介RNN算法只能从左向右依次计算2.问题–时间t依赖t-1时刻的计算结果,这样限制了模型的并行能力;–顺序计算的过程信息会丢失,尽管LSTM(长短时记忆网络)(这是一种改进后的循环神经网络,能够解决RNN无法处理长距离依赖的问题 通过引入三个门(遗忘门、输出门和输出门)来控制信息的流动,从而更好地处理序列中的长期依赖关系 )一定程度上缓解了长期依赖的问题,但是对于长期依赖现象,LSTM依旧无能为力。
Transformer的好处(也就是解决方法)–使用了attention机制,将序列中任意两个位置的距离缩小为一个常量–不是RNN的顺序结构,因此具有很好的并行性
==Transformer结构==:1.输入–小黑盒–输出
2.小黑盒:Encoders + Dec ...
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.
Quick StartCreate a new post$ hexo new "My New Post"
More info: Writing
Run server$ hexo server
More info: Server
Generate static files$ hexo generate
More info: Generating
Deploy to remote sites$ hexo deploy
More info: Deployment


