自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

AI蜗牛车

关注公众号:AI蜗牛车 回复:1222 得到google工程师整理的leetcode刷题笔记

  • 博客(34)
  • 资源 (8)
  • 问答 (2)
  • 收藏
  • 关注

转载 新特效火爆抖音!各路神仙齐唱《蚂蚁呀嘿》,网友:短短几秒需一生来治愈

金磊 杨净 发自 凹非寺 量子位 报道 | 公众号 QbitAI当互联网大佬们集体唱歌,会擦出怎样的火花?现在,火爆抖音的AI特效,一键就可以实现梦幻联动。瞧!马云、马化腾、马斯克等大佬们...

2021-02-28 00:02:00 187

转载 27岁华裔小伙一战成名!搞出美国新冠最准预测模型,一人干翻专业机构,彭博:Superstar...

金磊 晓查 发自 凹非寺量子位 报道 | 公众号 QbitAI年仅27岁的他,被彭博评价为“新冠病毒数据超级明星”。为什么?凭一己之力,仅用一周时间打造的新冠预测模型,准确度方面碾压那些...

2021-02-27 00:02:00 191

转载 图机器学习有多大神力?

转自 | 新智元编辑 | keyu近两年,图机器学习可谓是机器学习研究领域的新星,随着模型的更新和应用的推广,越来越多的人开始把注意力转向了这一方向。过去一年中,图机器学习在哪方面有突破呢...

2021-02-26 20:44:05 150

转载 时间复杂度和空间复杂度,一看就懂,面试前必过一遍

转自:公众号【嵌入式linux】作者:发哥一、定义时间和空间是程序的一个硬性指标,一个用来衡量 代码执行的速度 ,一个用来衡量 存储空间的大小程序 = 数据结构 + 算法时间复杂度:就是...

2021-02-25 17:30:00 56 1

转载 医学图像语义分割最佳方法的全面比较:UNet和UNet++

作者:Sergey Kolchenko编译:ronghuaiyang导读在不同的任务上对比了UNet和UNet++以及使用不同的预训练编码器的效果。介绍语义分割是计算机视觉的一个问题,我们...

2021-02-24 21:22:00 536

转载 有哪些好的科研习惯?

来自 | 知乎链接 | https://www.zhihu.com/question/394796969编辑 | AI有道本文仅作学术分享,若侵权,请联系后台删文处理在日常的科研工作中...

2021-02-24 21:22:00 44

转载 【资源分享】图神经网络(GNN)近年论文分类集锦

Survey PapersGraph Neural Networks: A Review of Methods and Applications. arxiv 2018.Jie Zhou,...

2021-02-23 20:37:18 238

转载 PyTorch Cookbook(常用代码合集)

Datawhale学习作者:张皓,南京大学,编辑:机器学习实验室众所周知,程序猿在写代码时通常会在网上搜索大量资料,其中大部分是代码段。然而,这项工作常常令人心累身疲,耗费大量时间。所...

2021-02-22 00:02:00 963

转载 PyTorch深度学习模型训练加速指南2021

作者:LORENZ KUHN编译:ronghuaiyang导读简要介绍在PyTorch中加速深度学习模型训练的一些最小改动、影响最大的方法。我既喜欢效率又喜欢ML,所以我想我也可以把它写下...

2021-02-22 00:02:00 328

转载 卷积神经网络中用 1*1 卷积有什么作用或者好处呢?

来自 |知乎作者 |陈运锦地址 |https://www.zhihu.com/question/56024942编辑 |机器学习算法与自然语言处理公众号本文仅作学术分享,若侵权,请...

2021-02-21 00:04:00 420

转载 7 大主题!梳理神经网络中 Normalization 的发展历程

作者丨没头脑@知乎来源丨https://zhuanlan.zhihu.com/p/75539170转自丨极市平台本篇文章用于总结近年来神经网络中 Normalization 操作的发展历程...

2021-02-20 18:06:00 38

转载 不用卷积,也能生成清晰图像,华人博士生首次尝试用两个Transformer构建一个GAN...

选自arXiv作者:Yifan Jiang等机器之心编译机器之心编辑部「attention is really becoming『all you need』.」最近,CV 研究者对 tra...

2021-02-19 00:02:00 220

转载 常见 Optimizer 梯度下降优化算法总结

来源 | DengBoCong@知乎https://zhuanlan.zhihu.com/p/343564175编辑丨极市平台仅作学术分享,不代表本公众号立场,侵权联系删除论文标题:An ...

2021-02-18 00:05:00 174 1

转载 权值衰减和 L2 正则化傻傻分不清楚?

作者 | Divyanshu Mishra编译 | ronghuaiyang转自 | AI公园导读权值衰减和L2正则化,到底是不是同一个东西,这篇文章给你答案。神经网络是伟大的函数逼近器...

2021-02-18 00:05:00 140

原创 【异常检测】DAGMM:结合深度自编码器器和GMM的端到端无监督网络(二):代码实战(PyTorch)...

作者| 贝壳er研究| 数据挖掘与异常检测出品 | AI蜗牛车“代码部分基于PyTorch1.6.0,使用网络入侵异常检测数据集KDDCUP99来训练和评测,完整代码见:GitHub ...

2021-02-17 00:03:00 364

转载 AI 框架基础技术之自动求导机制 (Autograd)

作者丨OpenMMLab来源丨https://zhuanlan.zhihu.com/p/347385418编辑丨GiantPandaCV0 前言可以把神经网络看作一个复合数学函数,网络结构...

2021-02-17 00:03:00 75

转载 GitHub代码一键转VS Code:只需+1s

作者丨杜伟来源丨机器之心导读被微软收购后的 GitHub,正在变得越来越易用,现在又有人把它和「宇宙第一 IDE」VS Code 紧密联系起来了。VS Code 是一个由微软开发,同时支...

2021-02-16 00:03:00 284

原创 【异常检测】DAGMM:结合深度自编码器器和GMM的端到端无监督网络(一):论文解读...

作者| 贝壳er研究| 数据挖掘与异常检测出品 | AI蜗牛车“这是一个我最近复现并产生较好应用效果的模型,论文来自于ICLR2018,思路非常有意思。花时间分别从模型原理和如何实现并...

2021-02-15 00:03:00 415

转载 CNN 的一些可视化方法

作者 | yishun@知乎来源丨https://zhuanlan.zhihu.com/p/53683453编辑 |极市平台导读对神经网络进行可视化分析不管是在学习上还是实际应用上都有...

2021-02-15 00:03:00 145

转载 全连接层的作用是什么?

来自 |知乎作者|魏秀参地址 |https://www.zhihu.com/question/41037974/answer/150522307编辑 |机器学习算法与自然语言处理...

2021-02-14 00:03:00 255

转载 PyTorch常见的坑汇总

作者:知乎—郁振波地址:https://www.zhihu.com/people/su-po-moon最近刚开始用pytorch不久,陆陆续续踩了不少坑,记录一下,个人感觉应该都是一些很容...

2021-02-14 00:03:00 214

转载 同样的实验室,硕士们进了BAT拿高工资,为什么博士却要挤破头进985高校?

本文来源知乎高赞回答一作者:NYC-2009夫妻都是985的副教授。2019年度国家个人所得税的系统里面的税前是270k过一点(老婆是230k的样子,年底津贴比我少)。但是我们只是985高...

2021-02-13 00:10:00 219

转载 FastFormers:实现Transformers在CPU上223倍的推理加速

作者:Parth Chokhra编译:ronghuaiyang导读使用多头注意力的Transform在cpu上实现222倍的加速。自BERT紧随Transformer诞生以来,几乎在所有与...

2021-02-13 00:10:00 59

转载 大年三十问候导师的后果...

来源 | 中国研究生(ID:zgyjs2002),每日豆瓣(ID:douban),学术志(ID:xueshuzhi001)“导师”这个词,大家都不陌生吧。有的导师像父母般关切你的生活,有的...

2021-02-12 00:07:00 57

原创 年薪百万,财务自由,高额年终奖

大家好, 我是AI蜗牛车。最近也快过年了嗷不知道大家回到家里过年了没,最近问候了几个要好的朋友,大多都在异乡过年了。我这属于风雨无阻,也成功赶回东北老家,舒舒服服居家隔离,过个年。最近年终...

2021-02-11 00:07:00 59

原创 焦虑,不知所措,努力应对,坦然,双非本硕求职算法的故事

作者| 似朝朝来自 |技术交流社区④出品 | AI蜗牛车来自技术交流社区④@小伙伴的分享。大概在去年暑期的时候,这位小伙伴时常伴随着焦虑在群里和大家交流感想,我也刚好看到和群友们一起聊...

2021-02-09 00:03:00 93 1

转载 【异常检测】使用计算机视觉来做异常检测

作者:Mia Morton编译:ronghuaiyang导读创建异常检测模型,实现生产线上异常检测过程的自动化。在选择数据集来训练和测试模型之后,我们能够成功地检测出86%到90%的异常。...

2021-02-08 00:03:00 264

转载 万字详文告诉你如何做 Code Review!

作者:cheaterlin,腾讯PCG后台开发工程师来源:腾讯技术工程前言作为公司代码委员会 golang 分会的理事,我 review 了很多代码,看了很多别人的 review 评论。发...

2021-02-07 00:07:00 123 1

转载 【时间序列】AAAI21最佳论文Informer:效果远超Transformer的长序列预测神器!

炼丹笔记干货作者:一元,四品炼丹师Informer:最强最快的序列预测神器01简介在很多实际应用问题中,我们需要对长序列时间序列进行预测,例如用电使用规划。长序列时间序列预测(LSTF...

2021-02-07 00:07:00 2294 1

转载 七个案例,读博读废了是种什么样的体验?

仅作学术分享,不代表本公众号立场,侵权联系删除转载于:科研小助手综合自知乎、E探索医学、考博圈等从全社会总体来看,读博是个人能力极大提升的过程,博士们也都在各行各业里发挥着中流砥柱的作用。...

2021-02-06 00:05:00 109

转载 朴实无华,总结200道往年BAT机器学习面试题

来源:CSDN刷题,是面试前的必备环节。本文作者总结了往年BAT机器学习面试题,干货满满,值得收藏。想要入职大厂可谓是千军万马过独木桥。为了通过层层考验,刷题肯定是必不可少的。本文作者根据...

2021-02-05 00:00:00 345 2

转载 2020 Top10计算机视觉论文总结:论文,代码,解读,还有demo视频!

作者:louisfb01编译:ronghuaiyang转载自:AI公园尽管今年世界上发生了这么多事情,我们还是有机会看到很多惊人的研究成果。特别是在人工智能更精确的说是计算机视觉领域。此外...

2021-02-05 00:00:00 203

转载 20W奖金+实习机会:阿里巴巴达摩院最新时间序列赛事来了!

Datawhale赛事赛事:2021“AI Earth”人工智能挑战赛2021“AI Earth”人工智能创新挑战赛,由阿里巴巴达摩院联合南京信息工程大学、国家气候中心、国家海洋环境预...

2021-02-04 11:56:37 127

原创 【模型压缩】深度卷积网络的剪枝和加速(含完整代码)

作者| 贝壳er研究| 数据挖掘与异常检测出品 | AI蜗牛车“记录一下去年12月份实验室的一个工作:模型的剪枝压缩,虽然模型是基于yolov3的魔改,但是剪枝的对象还是CBL层(即...

2021-02-02 00:02:00 541 2

MobileNetSSD_deploy网络文件适用于demo.py

官网所下的文件可能无法同步运行这个是可以的

2018-12-14

自己封装的Android的socket通信的类

自己封装的Android的socket通信的类

2017-05-06

解决android端Ble蓝牙每次只能接收 20字节的 方法类

仅供参考 自行 修改

2017-05-16

QT可以随着数值实时改变大小的长方形条形控件测试代码

亲测好用,可以下载之后自己 再灵活运用

2017-05-05

QT简单串口助手 有收发功能采用Qextserial

绝对可以用,并且比较稳定

2017-05-05

QT 的第三方库串口助手

QT 的第三方库串口助手

2017-05-06

QT串口的第三方库

QT串口的第三方库

2017-05-05

QT图形实时显示测试代码(可根据值改变)

QT图形实时显示测试代码(可根据值改变)

2017-05-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人 TA的粉丝

提示
确定要删除当前文章?
取消 删除