导读:今日AI大模型领域的资讯涵盖了多个重要进展。在技术应用方面,元象推出了国内首个基于物理的3D动作生成模型MotionGen,通过融合大模型、物理仿真和强化学习等算法,实现了文本到复杂3D动作的无缝连接,为动画、游戏等行业带来创新。商汤2024年上半年财报显示,生成式AI收入大幅增长,占总收入比重的60%,表明AI技术在金融、医疗等领域的应用逐渐深化。在行业发展方面,OpenAI计划推出的新人工智能模型“草莓”,旨在改进新旗舰LLM“Orion”,可生成高质量训练数据,减少模型错误,并努力提高透明度。浙江大学、之江实验室和斯坦福大学的研究人员开发的深度学习模型MitoReID,通过分析线粒体表型变化来识别药物作用机制,为大规模药物发现和再利用提供了新的途径。 在硬件支持方面,Cerebras上的Llama3.1模型展现出了惊人的推理速度,为AI探索计划提供了强有力的支持。在学术方面,KDD2024全球顶级学术会议公布了多个重磅奖项,表彰了数据挖掘领域的杰出科研成果;最后我们向大家推荐Meta AI科学家朱泽园在ICML会议获得一众好评的演讲《The theory of LLMs》。
标题: 元象推出国内首个基于物理的3D动作生成模型MotionGen
摘要: 元象XVERSE推出了国内首个基于物理的3D动作生成模型MotionGen,该模型通过融合大模型、物理仿真和强化学习等前沿算法,允许用户通过简单文本指令快速生成逼真、流畅的复杂3D动作,这标志着中国在3D AIGC领域的重大突破。该工具不仅提高了3D角色动画制作的效率,还为动画、游戏、电影和虚拟现实行业带来了更高的创作自由度。MotionGen通过精准文本解析和真实物理规则解析,支持从基础行走到复杂肢体运动的各类动作创意需求,并能够实现文本到动作的无缝连接。此外,该模型还能根据文本中的微妙差异呈现不同的风格变化。MotionGen的技术实现基于元象自主研发的MotionGenGPT算法,该算法创新性融合了多种复杂算法,无需人工设定或调整参数,即可直接生成逼真流畅的复杂3D动作。阅读详细内容
标题: 商汤营收大涨21%,六成来自生成式AI
摘要: 商汤2024年上半年财报显示,总营业收入为17.4亿元,同比增长21%,其中生成式AI收入大幅增长256%至近11亿元,占总收入比重的60%,历史上首次超越传统AI业务。尽管公司还未实现盈利,但亏损幅度已经收窄。商汤通过大装置和大模型的构建,支持大规模模型训练,推动生成式AI在金融、医疗等领域的应用,CEO徐立表示将引领行业迈向通用人工智能时代。阅读详细内容
标题: 「草莓」即将上线,OpenAI新旗舰大模型曝光,代号「猎户座」
摘要: OpenAI计划今年秋天推出新人工智能「草莓」,作为聊天机器人的一部分,可能集成在ChatGPT内。「草莓」能解决未见过的数学和编程问题,并不限于技术问题。同时,OpenAI正在开发新旗舰LLM「Orion」,旨在改进GPT-4。而「草莓」旨在改进「Orion」,可生成高质量训练数据,减少模型错误。OpenAI已向安全监管人员展示「草莓」模型,努力提高透明度。未来,ChatGPT用户或可根据时间敏感程度开启或关闭「草莓」。阅读详细内容
标题: 识别精度高达76.32%,浙大、之江团队用深度学习加速大规模药物发现和再利用
摘要: 浙江大学、之江实验室和斯坦福大学的研究人员开发了一种名为MitoReID的深度学习模型,该模型通过分析线粒体表型变化来识别药物的作用机制(MOA)。研究人员建立了包含570,096张细胞单细胞图像的数据集,这些细胞暴露于1,068种FDA批准的药物中,并通过时间成像监测线粒体形态和膜电位。MitoReID模型使用重新识别框架和Inflated 3D ResNet主干,提供了一种自动化且经济高效的靶标识别方法,可加速大规模药物发现和再利用。该研究成果发布在《Nature Computational Science》上(论文链接),展示了MitoReID在预测未见药物和天然化合物MOA方面的潜力,为基于细胞器表型相似性的大规模药物发现和再利用提供了新的途径。然而,该方法的性能受到数据质量、实验条件和标签注释等因素的影响,需要进一步改进和扩展。研究人员建议将药物-靶点和药物-疾病关系等更多信息整合到深度学习方法中,以提高预测准确性,并探索潜在的治疗候选药物或识别不良反应。阅读详细内容
标题: 估值160亿,上海AI芯片独角兽冲刺IPO,腾讯是大股东
摘要: 上海AI芯片独角兽燧原科技正式启动A股IPO,估值高达160亿。该公司由腾讯等投资,其中腾讯为第一大股东,持股20%。燧原科技自2018年成立以来,已融资近70亿元人民币,主打AI领域云端算力产品研发,产品涵盖AI加速卡、智算集群等。创始人赵立东为前AMD高管,与清华电子系校友共同塑造了中国半导体产业的半壁江山。随着AI芯片国产替代关注度提升,燧原科技等初创企业开始在资本市场崭露头角。阅读详细内容
标题: 陶哲轩最新演讲:AI时代,数学研究将进入前所未有的规模
摘要: 陶哲轩在IMO 2024的演讲中深入探讨了AI与数学的关系,强调AI将推动数学研究达到前所未有的规模。他讲述了机器辅助计算的传统与演变,从早期的机械计算机到现代AI工具的应用。陶哲轩认为,AI和机器学习可以处理大量数学问题,加速研究进程,并透露自己使用GPT-4和GitHub Copilot辅助数学证明。他还提到,长期以来,机器在科学计算中发挥着重要作用,而现在AI的发展为数学研究带来了新的可能性。此外,陶哲轩提及了SAT求解器和SMT求解器等工具在数学逻辑问题中的应用,尽管这些工具有局限性,但它们展示了机器在数学研究中的潜力。总之,陶哲轩的演讲展现了AI与数学结合的广阔前景。阅读详细内容
标题: 在Cerebras上的推理速度 ‣ Llama3.1-70B:每秒处理450token…
摘要: Cerebras上的Llama3.1模型展现出了惊人的推理速度,其中70B版本的模型每秒能处理450个token,比GPU快20倍,而8B版本更是每秒可处理1,700个token。除此之外,其每百万个token的费用仅为60美分,是超大规模计算提供商的五分之一,且全16位精度保证了模型的完整准确性。此外,开发者还可以享受到宽松的速率限制。这一技术的推出预示着人工智能时代的新篇章,为AI探索计划提供了强有力的支持。阅读详细内容
标题: 模型小,还高效!港大最新推荐系统EasyRec:零样本文本推荐能力超越OpenAI、Bert
摘要: 在推荐系统领域,深度神经网络(DNNs)和图神经网络提升了协同过滤(CF)的推荐质量,但面临新用户/商品的冷启动问题。语言模型(LMs)的泛化能力被探索用于解决零样本学习场景的挑战。EasyRec框架(论文链接)通过结合LMs的语义理解能力和CF的协同信号,旨在提高零样本场景下的推荐性能,实现更灵活、适应性强的推荐系统。它利用文本画像和多层双向Transformer架构(如BERT)来生成用户和商品的语义表示,通过余弦相似度计算交互概率,最终生成个性化推荐。该方法有效保留协同信息,快速适应动态场景,优化了推荐系统的性能。阅读详细内容
标题: GenAI投入初现回报,谷歌全球调查:86%的企业实现6%的收入增长
摘要: 要点提炼: 企业对AI的需求是将智能化工具转化为生产力。科技巨头发现企业用户市场的潜力,如企业版ChatGPT用户量激增。GenAI正被企业用于降本增效,但具体部署情况和生产力提升程度尚不明确。谷歌调查显示,使用GenAI的企业74%在一年内获得投资回报,86%的受访者收入增长6%以上。GenAI主要从四个维度提升企业效益:生产力、业务增长、用户体验和企业安全。然而,员工对AI的使用存在压力与不满,企业需要关注员工培训与参与,以平衡企业与员工需求,促进共同创造和生产力提升。阅读详细内容
标题: AI在用 |「国乒喜剧人」许昕搞的Logo火了,我用AI整了个
摘要: 文章提到AI在Logo设计领域的应用,如design.com、标小智等AI工具可快速生成创意Logo,助力设计师。同时,介绍了其他Logo生成器,如Logo Diffusion和canva,提供多样化设计选项。阅读详细内容
标题: Llama-3不算真开源:今年10月,权威定义就要来了
摘要: 开源AI定义引发热议,OSI提出“四项基本自由”草案。此草案要求AI模型提供源代码、权重和训练数据详情,但无需公开原始数据。新定义可能影响模型发布形式及法规制定,推动大模型技术创新。阅读详细内容
标题: KDD2024重磅奖项出炉:“最大奖项”创新奖花落加州大学Lise Getoor,李骏东摘得新星奖
摘要: KDD 2024全球顶级学术会议在巴塞罗那公布多个重磅奖项,包括创新奖、新星奖、时间检验奖等。创新奖由加州大学圣克鲁斯分校的Lise Getoor教授(学者主页)获得,新星奖则由弗吉尼亚大学的李骏东助理教授(学者主页)摘得。同时,来自石溪大学、微软亚洲研究院等团队的科研成果也获得表彰。KDD是数据挖掘领域最重要的会议之一,今年为第30届,吸引了全球顶尖研究者和学者的关注。阅读详细内容
标题:The theory of LLMs|朱泽园ICML演讲整理
摘要:近日现Meta的AI科学家,原微软研究院首席研究员的朱泽园 Allen-Zhu在ICML会议上关于Physics of Language Models的Tutorial获得了一众好评,引起了广泛的关注。我们认为该报告内容十分重要(原版视频:https://www.youtube.com/watch?v=yBL7J0kgldU),能够帮助学界产业界的各位对于大模型有更清晰的理解,因此翻译梳理成了中文,供大家阅读。现如今的大模型的参数量动辄成百上千亿,可谓是十分庞大的多体系统,很难以从底层的数学,统计学原理去理解清楚其内部的演化。然而在这场目标奔赴通用人工智能的史诗的征程中,我们需要建立对于大模型的一些底层认知来作为灯塔指引前进的方向。Scaling Law让我们认识到扩大模型,数据规模的重要性,但在如今AI头部公司们纷纷开始有能力创造出接近或达到GPT4能力的大模型的时候,我们也清楚地感受到为了更进一步,还需要更多的探索。基于一些合理的假设,以及实际观察到的现象,我们可以像研究自然的物理学一般去试图探索大模型的现象学理论。这种视角的研究被称为Physics of LLMs,或许会给我们建立许多重要的关于大模型的底层认知。阅读详细内容