在浏览器中阅读 | |
本通讯由 为 您提供 |
快乐星期三别忘了订阅Maker Stacks。本周,我们将采访连续创始人、Product Hunt 社区资深人士Mubs,了解他的技术栈。
下面是一些新闻:
🧵Meta 刚刚首次展示了 Threads fediverse 集成。
在 4 月 9 日的下一次活动中与Product Hunt 团队和 Mercury 一起玩吧。在享用美食和美酒的同时,与我们的团队见面,与创客们聊天,发掘当今最酷的人工智能产品。
上次活动的名额很快就报满了,请抓紧时间!
提到人工智能,你可能会马上想到 ChatGPT、Sora 等面向消费者的应用程序。但就像其他科技领域一样,在引擎盖(即芯片)下也有大量的工作要做,有几家公司已经在众多公司中脱颖而出。
英伟达(Nvidia)是一家在人工智能浪潮中取得巨大成功的公司,其市值甚至一度超过了 Alphabet(谷歌)和亚马逊,这在很大程度上要归功于其在人工智能芯片制造方面的努力,尤其是 H100 GPU。
现在,该公司计划通过新的B200 和 GB200 "超级芯片 "进一步巩固其领先地位。
在昨天举行的一场被称为 "人工智能伍德斯托克"的活动上宣布,新芯片的 2080亿个晶体管可提供高达 20petaflops的 FP4 马力,与单个格雷斯 CPU 结合使用时,可为 LLM 接口提供高达 30 倍的性能,同时效率更高。
在此之前,被视为人工智能行业标准的 H100 GPU 大约有 800 亿个晶体管。
这意味着什么? 嗯,这意味着我有生以来第一次可以自信地说,一个后面有 10 亿的数字相对于另一个数字来说是很小的。
其次,说这些芯片功能强大也是技术术语。有多强大?根据 Nvidia 的说法,在该公司之前的芯片系列上训练一个 1.8 万亿个参数模型需要10,000 个 GPU 和 15 兆瓦的电力。把旧的换成新的,就可以减少到2000 个 GPU 和 4 兆瓦的功率。
据 Nvidia 首席执行官黄仁勋(Jensen Huang)称,这些芯片的价格大约在 3 万到 4 万美元之间。因此,可以肯定地说,你和我都不会在短期内购买一款芯片来驱动我们的 ChatGPT wrapper 副项目。
您唯一需要的人工智能客户服务解决方案,93 折优惠
我们始终支持初创企业。加入 Intercom 的 "早期计划",即可享受人工智能支持平台功能 93% 的折扣。该解决方案包括人工智能聊天机器人、服务台和主动支持。
降低成本,加强支持团队,确保客户满意。
- Stability AI刚刚发布了一个新的文本到 3D 视频 AI 模型。
- ThinkAny是一个利用人工智能策划更高质量内容的搜索引擎。
- Inner Vision Pro是一款针对心理健康的 Vision Pro 应用程序。