1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  • 释放果蝇半脑连接组——大脑连接的最大突触分辨率图

    释放果蝇半脑连接组——大脑连接的最大突触分辨率图

    RainNight 2022-01-2 人工智能谷歌翻译

    673°

    描述复杂系统的基本方法是测量其“网络”——各个部分相互连接和通信的方式。例如,生物学家研究基因网络,社会科学家研究社交网络,甚至搜索引擎都部分依赖于分析网页通过相互链接形成网络的方式。 在神经科学中,一个长期存在的假设是脑细胞之间的连接在大脑的功能中起着重要作用。虽然技术困难历来是神经科学家试图详细研究大脑网络的障碍,但这种情况正在开始改变。去年,我们宣布了对整个果蝇大脑的首个纳米分辨率自动重建,其重点是细胞的个体形状。然而,这一成就并没有透露有关它们的连通性的信息。 今天,与HHMI Jane
  • 改革者:高效的变压器

    改革者:高效的变压器

    RainNight 2022-01-2 人工智能谷歌翻译

    679°

    理解顺序数据(例如语言、音乐或视频)是一项具有挑战性的任务,尤其是在依赖广泛的周围环境时。例如,如果一个人或一个物体在视频中从视图中消失,但很晚才重新出现,许多模型会忘记它的样子。在语言领域,长短期记忆(LSTM) 神经网络覆盖了足够的上下文来逐句翻译。在这种情况下,上下文窗口(即翻译中考虑的数据范围)涵盖从几十个到大约一百个单词。最近的Transformer 模型不仅提高了逐句翻译的性能,而且可用于通过多文档摘要生成整个维基百科文章。这是可能的,因为 Transformer 使用的上下文窗口扩
  • 使用机器学习以高分辨率“临近预报”降水

    使用机器学习以高分辨率“临近预报”降水

    RainNight 2021-12-30 人工智能谷歌翻译

    747°

    天气可以以平凡和严肃的方式影响一个人的日常生活,而预测的精确度会极大地影响他们处理天气的方式。天气预报可以告知人们是否应该采取不同的路线上班,是否应该重新安排计划在周末的野餐,或者甚至由于暴风雨即将来临而需要撤离家园。但是,对于局部风暴或以小时为单位演变的事件(例如雷暴),做出准确的天气预报尤其具有挑战性。 在“基于雷达图像的降水临近预报的机器学习,”我们正在介绍用于降水预测的机器学习模型开发的新研究,该模型通过进行适用于近期的高度局部化的“无物理”预测来应对这一挑战。机器学习的一个显着优势是,
  • 【求知=>算法】两数之和

    【求知=>算法】两数之和

    RainNight 2021-12-30 求知=>算法

    781°

    ## 两数之和 --- 给定一个整数数组 `nums`和一个整数目标值 `target`,请你在该数组中找出 和为目标值 `target`的那两个整数,并返回它们的数组下标。 你可以假设每种输入只会对应一个答案。但是,数组中同一个元素在答案里不能重复出现。 你可以按任意顺序返回答案。 示例 1: --- > 输入:nums = [2,7,11,15], target = 9 > 输出:[0,1] > 解释:因为 nums[0] + nums[1] == 9 ,返回 [0, 1] 。 示例 2:
  • 【求知=>算法】移动零

    【求知=>算法】移动零

    RainNight 2021-12-30 求知=>算法

    712°

    ## 移动零 --- 给定一个数组 `nums`,编写一个函数将所有 0 移动到数组的末尾,同时保持非零元素的相对顺序。 示例: --- > 输入: [0,1,0,3,12] > 输出: [1,3,12,0,0] 说明: --- 1. 必须在原数组上操作,不能拷贝额外的数组。 2. 尽量减少操作次数。 ## 解题思路 --- 1. 直接判断当前值是否等于0,如果等于0就删除掉,然后在末尾补0 ``` nums = [0,1,0,3,12] for j in nums: if j == 0: nu
  • 【求知=>算法】 加一

    【求知=>算法】 加一

    RainNight 2021-12-30 求知=>算法

    678°

    ## 加一 --- 给定一个由 **整数**组成的**非空** 数组所表示的非负整数,在该数的基础上加一。 最高位数字存放在数组的首位, 数组中每个元素只存储**单个**数字。 你可以假设除了整数 0 之外,这个整数不会以零开头。 示例 1: --- > 输入:digits = [1,2,3] > 输出:[1,2,4] > 解释:输入数组表示数字 123。 示例 2: --- > 输入:digits = [4,3,2,1] > 输出:[4,3,2,2] > 解释:输入数组表示数字 4321。 示
  • 【求知=>算法】两个数组的交集 II

    【求知=>算法】两个数组的交集 II

    RainNight 2021-12-30 求知=>算法

    722°

    ## 两个数组的交集 II --- 给你两个整数数组 `nums1` 和 `nums2` ,请你以数组形式返回两数组的交集。返回结果中每个元素出现的次数,应与元素在两个数组中都出现的次数一致(如果出现次数不一致,则考虑取较小值)。可以不考虑输出结果的顺序。 **示例 1:** --- > 输入:nums1 = [1,2,2,1], nums2 = [2,2] > 输出:[2,2] **示例 2:** --- > 输入:nums1 = [4,9,5], nums2 = [9,4,9,8,4] >
  • 【求知=>算法】只出现一次的数字

    【求知=>算法】只出现一次的数字

    RainNight 2021-12-30 求知=>算法

    743°

    ## 只出现一次的数字 ---- 给定一个非空整数数组,除了某个元素只出现一次以外,其余每个元素均出现两次。找出那个只出现了一次的元素。 说明: --- > 你的算法应该具有线性时间复杂度。 你可以不使用额外空间来实现吗? 示例 1: --- > 输入: [2,2,1] > 输出: 1 示例 2: --- > 输入: [4,1,2,1,2] > 输出: 4 ## 解题思路 1. 位运算方案 --- > ^符号为异或,本质上是将数字转换为二进制,之后进行进行位运算。 > 相同得0,不同得1,其实也
  • 使用 GLaM 更高效的上下文学习

    使用 GLaM 更高效的上下文学习

    RainNight 2021-12-28 人工智能谷歌翻译

    678°

    大型语言模型(例如,GPT-3)具有许多重要的功能,例如在各种任务中执行小样本学习,包括阅读理解和用很少或没有训练示例的问题回答。虽然这些模型可以通过简单地使用更多参数来获得更好的性能,但训练和服务这些大型模型的计算量可能非常大。是否可以更有效地训练和使用这些模型? 在“ GLaM: Efficient Scaling of Language Models with Mixture-of-Experts ”中,我们介绍了通用语言模型 (GLaM),这是一个万亿权重模型,由于稀疏性,可以有效地训练
  • 一个快速 WordPiece 标记化系统

    一个快速 WordPiece 标记化系统

    RainNight 2021-12-28 人工智能谷歌翻译

    749°

    标记化是大多数自然语言处理(NLP) 应用程序的基本预处理步骤。它涉及将文本拆分为称为标记的较小单元(例如,单词或词段),以便将非结构化输入字符串转换为适用于机器学习(ML) 模型的离散元素序列。在基于深度学习的模型(例如,BERT)中,每个标记都映射到一个嵌入向量以输入模型。 ![file](/static/upload/bigpic/20211228/1640697870779183174.png) 一种基本的标记化方法是将文本分解为单词。但是,使用这种方法,未​​包含在词汇表中的单词将被视
Collect from 雨夜的博客 雨夜的博客