2016-09-27 15:59

引用来自“glogger”的评论

要是我到了你还没到,你等着吧
要是你到了我还没到,你等着吧
请配图
这么博大精深的,配不了图,人都得理解下呢
2016-09-26 16:40

引用来自“glogger”的评论

要是我到了你还没到,你等着吧
要是你到了我还没到,你等着吧
请配图
这两句, 独立语境, 应该还是可以处理的
2016-09-26 16:40

引用来自“glogger”的评论

要是我到了你还没到,你等着吧
要是你到了我还没到,你等着吧
请配图
这两句, 独立语境, 应该还是可以处理的
2016-09-26 15:30

引用来自“艾斯_韩”的评论

我比较好奇是的用了多少张类似左边的图训练出了右边的图,准确率有多高。。。。
现在这个算法描述图像的准确率已经高达 93.9%
好吧,表示没有好好看文章
2016-09-26 15:27
我比较好奇是的用了多少张类似左边的图训练出了右边的图,准确率有多高。。。。
2016-09-26 11:22
为什么每次看到这样的消息,就不自觉的想到了百度
2016-09-26 10:54
不错。
2016-09-26 10:25
谷人希. 我愿意贡献我小小人生的所有数据~
2016-09-26 09:47

引用来自“glogger”的评论

要是我到了你还没到,你等着吧
要是你到了我还没到,你等着吧
请配图
首先,当你听到这句话的时候你能理解先,只要你能理解说明有规律可循,你都理解不了,机器人怎么理解?不要逗B了
2016-09-26 09:43
百度怎么看?
2016-09-26 09:36
还让12306活么?
2016-09-26 09:15
牛B啊
2016-09-26 09:13
不明白大脑的运作,那完美度还是达不到大脑的级别。不过已经很厉害了。
2016-09-26 09:11
真厉害。这精准度 需要多少数据才可以达到。
2016-09-26 09:03
有接口API可以调动吗
2016-09-26 09:01
这个厉害了,以后要机器能认识看到的各种物体,那真正的智能机器人就真的能实现了
2016-09-26 08:52
谷歌厉害,点赞
2016-09-26 08:33
要是我到了你还没到,你等着吧
要是你到了我还没到,你等着吧
请配图
2016-09-26 07:43
这得收集多少用户数据才能实现。。?
回复 @
{{emojiItem.symbol}}
返回顶部
顶部