这样想的话,真的有个很好的论点—— 年 exNet 在 ImgeNet 挑战赛上的论文真的是一个非常经典的模型,那就是卷积神经网络模型。
而实际上
这个概念早在 年代就已经出现了,我还记得作为研究 WhatsApp 号码数据 生学习的第一篇论文,内容也差不多,有六七层的网络结构。exNet 和卷积神经网络模型的唯一区别几乎就是 GPU ——使用了两个 GPU 和海量的数据。 所以我本来要说的是,大多数人现在都熟悉所谓的“痛苦的教训”bitter n),这个教训说的是,如果你开发一个算法,只要确保你能利用现有的计算资源,因为这些资源会逐渐变得可用。于是你只需要一个能够不断进步的系统。 另一方面,似乎还有另一个同样有说服力的观点,那就是新的数据源实际上解锁了深度学习。ImgeNet 就是一个很好的例子。虽然很多人认为自注意力机制对 Trnformer 模型很重要,但他们也会说这是利用人工标注数据的一种方式。 因为人类为句子结构提供了标注,如果你看看 IP 模型,它实际上是通过互联网让人类使用t标签来标记图片。
因此,这实际上是一个关于数据的故事,而不是关于计算的故事。那么答案是两者兼有,还是更偏向某一方呢?我认为是两者兼有,但你也提到了另一个非常关键的点。
我觉得在算
法领域中,实际上有两个明显不同的时代。ImgeNet 时代是监督学习的时代。在这个时代,我们有很多数据,但我们不知道如何仅凭数 让您可以专注于业务的其他方面 据本身来训练。 ImgeNet 和其他同时期的数据集的预期是,我们会有大量的图像,但我们需要人类对每张图像进行标注。而我们训练的所有数据,都是由人类标注员逐一查看并标注的。 而算法的重大突破在于,我们现在知道如何在不依赖人类标注的数据上进行训练。
对于
个没有 背景的普通人来说,似乎如果你在训练人 美国电话列表 类数据,人类实际上已经进行了标注,注并不是显式的。 是的,哲学上来说,这是一个非常重要的问题,但这个问题在语言领域比在图像领域更为真实。是的,但我确实认为这是一个重要的区别。IP 确实是由人类标注的。