品牌介绍 查看更多

创立于1998年,由拉里·佩奇和谢尔盖·布林共同创建。Google拥有包括智能手机,搜索引擎,移动操作系统,广告服务等产品。Google的搜索引擎是其最出名的产品,被认为是全球最大的搜索引擎。

品牌资讯 查看更多
种草笔记 查看更多
众测
全网口碑 查看更多
  • 全球最有价值的媒体品牌:谷歌第一,抖音/TikTok,第二,Facebook 第三,
    全球最有价值的媒体品牌:谷歌第一,抖音/TikTok,第二,Facebook 第三,前三十名中,中国品牌占六席,美国品牌占20席。
    来自 什么值得买
    05-06 17:26
  • 新机谍照曝光:海湾蓝与薄荷绿引领新风尚!
    近期,科技界目光聚焦于谷歌即将推出的Pixel 8a智能手机,这款低调酝酿中的新作在各类传闻与泄密的推动下,正逐步褪去其神秘面纱,引发业界热烈探讨。日前,权威爆料平台DroidReader揭示了两张疑似Pixel 8a真机的谍照,为公众提供了首次近距离审视其外观设计的机会,瞬间引爆了科技社群的广泛关注。这两张谍照揭示了两部不同色调的Pixel 8a实机,分别被赋予“海湾蓝”与“薄荷绿”这两种清新且极具辨识度的色彩。相较于前代Pixel 8系列的同类配色,新款Pixel 8a凭借独特的色彩美学,成功为市场注入了新鲜活力,使得消费者对这款即将问世的新品充满热切期待。谍照不仅揭示了Pixel 8a的时尚外观,更进一步透露其内在实力。据传,该机将搭载谷歌自主研发的第三代Tensor处理器——Tensor G3,这款芯片以其卓越性能表现著称,确保用户在日常操作与高强度应用中都能享受极致流畅与稳定的使用体验。此外,Pixel 8a或将搭载一块具备120Hz高刷新率的显示屏,无论是观影、游戏还是浏览网页,都能呈现出细腻丝滑的画面质感,显著提升视觉享受。续航能力方面,Pixel 8a展现出不俗实力。据悉,其内置一块容量高达4500mAh的大电池,并支持高效的27W快速充电技术,确保手机能在短时间内迅速恢复充足电力,满足用户全天候高强度使用的电力需求。尽管在摄像头配置上, Pixel 8a似乎沿用了Pixel 7a的64MP主摄与13MP副摄组合,像素规格并未标新立异,但考虑到谷歌在相机算法调校领域的深厚功底,我们有理由相信Pixel 8a在实际拍摄效果上将延续谷歌一贯的高水准表现,为用户带来超越像素数值的出色摄影体验。至于定价策略,消息指出Pixel 8a或将成为迄今为止A系列中最昂贵的一款机型,其预计售价将突破500美元大关(约人民币3625元)。这一价格定位不仅体现了谷歌对Pixel 8a产品力的坚定信心,更预示着它将直面高端市场竞品,展开一场激烈的价值较量。关于Pixel 8a的正式亮相日期,谷歌已在官方渠道予以确认。这款备受瞩目的新品将于2024年5月14日开幕的I/O大会上揭开神秘面纱。届时,我们将有机会深入了解Pixel 8a的详细规格、性能表现、影像实力以及续航能力等诸多关键信息。综上所述,谷歌Pixel 8a的曝光无疑为智能手机市场注入了新的活力与期待。凭借其强劲核心性能、独具魅力的色彩搭配、扎实的续航能力以及颇具竞争力的定价策略,Pixel 8a正吸引着全球科技爱好者的密切关注。随着发布日期的日益临近,更多关于Pixel 8a的秘密将逐一揭晓,让我们共同期待这款新品在全球舞台上的精彩亮相。小金笔记!
    来自 什么值得买
    04-23 16:27
  • 买Pixel是图什么呢?
    是因为颜值,颜色漂亮单手可操作?原汁原味的安卓系统,没有花里胡哨的功能?搭载的平平无奇的AI大模型?还是它的谷歌自研处理器、直屏设计、30倍潜望长焦?

    谷歌 Google Pixel 8/8Pro 谷歌八代手机 安卓原生系统 海外版 Pixel 8Pro 曜石黑 256GB

    6999元起

    来自 什么值得买
    04-08 12:28
  • 谷歌Pixel 9渲染图泄漏
    谷歌Pixel 9是谷歌即将推出的一款手机,渲染图显示其保留了Pixel一惯的设计语言,如前置摄像头仍位于屏幕顶部中央,而直角边框与圆润的拐角相结合,赋予Pixel 9更佳的质感。谷歌Pixel 9将采用先进的FOWLP(扇出型晶圆级封装)技术的Tensor G4芯片,这有助于减薄芯片晶圆的厚度,提高散热性能和整体效能。另外,谷歌Pixel 9将配备一块6.03英寸的OLED显示屏。在尺寸方面,Pixel 9的尺寸约为152.8×71.9×8.5mm,后置摄像头凸起后为12mm。电源键和音量键位于手机边框的右侧。
    来自 什么值得买
    03-28 22:02
  • 现场围观黄仁勋和Transformer七名作者对话:世界需要比Tranformer更强的东西
    英伟达GTC大会当之无愧的重头戏,也是黄仁勋除了自己的主题演讲外唯一参与的环节,真真是万众期待的一场世纪对话,来了:今天上午,老黄亲自领衔七位Transformer发明人、开山巨作「Attention is All You Need」作者一起登台,带来「Transforming AI」主题小组讨论。全场最大的会议室门口,慕名而来的人流也是前所未见。提前1小时已经被围得水泄不通,导致会议不得不延迟开始,完全像是巨星见面会。等待进场的人人人人人。图源:Gary Singh2017年,谷歌的八名研究人员联合发表具有里程碑意义的「Attention is All You Need」论文,引入变压器模型和自注意力机制,让NLP一夜之间变了天,人工智能领域从此不同。这篇论文也是成就后续许多大模型的奠基之作,可以说没有Transformer架构,就没有今天的ChatGPT、Claude、Gemini...这八人后来已先后离开谷歌,各奔东西。这次除Niki Parmar因紧急原因未能到场外,七人都在黄仁勋的召集下合体GTC大会。是老友重聚,更是他们史上首次在公众面前同框——足见黄仁勋和英伟达现在的势不可挡的影响力,以及如日中天的行业地位。而他们之中,除一人去了OpenAI,其余七名都选择投身创业。手中又诞生了Character.ai, Cohere, Essential AI, Inceptive这些我们耳熟能详的AI独角兽和当红公司。加上黄仁勋,造就眼前这个公司总价值巨壕的阵容。八仙同台,有种传说照进现实的感觉。整场对话围绕机器学习模型和AI技术的“昨天、今天、明天”。七位「Transformer Mafia」共同追忆了那篇明星论文的诞生故事,讨论从变换器架构提出到现在的7年里模型的发展水平,也各自讲述了自己离职谷歌的原因和创业秘辛。并且对未来模型探索方向,包括推理能力、数据来源、小型模型、评估标准等各个层次的预测。黄教主第一个从粉丝簇拥中走出,上来就笑着感叹:“今天排队的人好多!这间会议室和两个休息室全挤满了,等会儿他们一进来就得是一场混乱。”他再次强调现在是「新工业革命的开始」。英伟达从计算机图形到专注加速计算,再到将GPU应用于AI,大幅降级了人类计算成本,如今迎来了不可思议的生成式人工智能。“这种从任何数据中学习的能力是极其变革性的。在这场新的工业革命中,我们将生产出前所未有的产品。就像以前的流水线工厂会用发电机把原材料转化为有价值的产品那样,在前所未有的人工智能工厂中,原材料是数据,我们所说的GPU系统就是发电机。数字进入再产出,并且应用到各行各业。这都是从未存在过的,但我们正在见证这一切发生。你绝不想错过接下来的10年,令人难以置信的新能力将会出现,而这一切都源于一些研究人员。今天,我们邀请到了一个名为Transformer的机器语言模型发明者们,我们就以会客厅式的方式和他们聊聊。”黄仁勋还打趣说,刚刚在后台大家开了一大堆深度学习笑话,也有好多争论。不如就把嘉宾请上来,一起看看话题会引向何处。在对七位Tansformer发明人依次介绍时,他又喃喃自语道,“全是CEO,这些人的公司名字里怎么都有AI这个词。其实我也早就把A和I两个字母放在NVIDIA,只是顺序没弄对。”请出在OpenAI当Member of Technical Staff的Lukasz kaiser时还说:“天哪Lukasz,上台吧,你是现在唯一还坚持做工程师的人,你是我的英雄!”一身的幽默功力引发全场爆笑。接下来,硅星人就在GTC前排带大家一起,见证这场传奇对话:1.哪些挑战催生了Transformer和「Attention is All You Need」?黄仁勋:首先,他们从未同时在同一个房间里相见过。这个 ‘work from home thing’现在已经失控了!但它没停止创新的脚步。很高兴今天能见到你们,我们会讨论transformer重要的工作意义,令人难以置信的变革能力和对行业产生的深远影响。正如我之前所说,我们今天所享有的一切,都可以追溯到那个重要时刻。事实上,我们能够以序列和空间的方式从大量数据中学习,发现关系和模式,创建出这些庞大的模型,确实是变革性的。等会儿你们可以互相打断,互相交谈,如果意见不同,可以互相抗议甚至起身离开,今天没有什么禁忌哈哈。但回到最初——你知道作为工程师,我们需要有问题来激发灵感——是什么问题让你们挣扎,促使你们产生transformer的想法?Illia Polosukhin:我想每个人面临的问题都不一样。但对我和我们团队来说,我们当时在研究问答系统。非常简单,就是在谷歌上提出一个问题,它给出答案,而且谷歌有要求延迟极低。因此如果你想让实际的模型去搜索数据、阅读成吨的文件,需要做到极快速地处理。而当时的模型和RNN网络无法做到这一点。Jakob Uszkoreit:当时我们正处在一个生成训练数据的速度远超实际训练模型速度的时期。实际上我们用的是更简单的架构,只是用前馈网络和n-gram作为输入特征,因为它们在谷歌级别的训练上速度更快。所以看起来解决这个问题是很有价值的事情。Noam Shazeer:我们在2015年就已经看到了这种规模效应。你可以看到模型越大,它就变得越聪明。这是有史以来最简单的问题,你只是在预测下一个token。它会变得非常聪明,能够做出100万种不同的事情,你只需扩大规模,让它变得更好。一个巨大的挑战是,处理RNN确实痛苦对吧?所以当我无意中听到这些家伙在谈论,嘿,让我们用卷积或者自注意力取代它吧!我想,太好了,我们就这么做!这就像蒸汽机和内燃机的区别。我们在蒸汽机上做了各种改进,但效果一直有限。而内燃机出现后,情况就大为改观。我们仍在等待核聚变,这就是下一波革命性突破。Ashish Vaswani:我想,我一直被这两个教训所提醒,尤其是在transformer时期。当我在读研时从事机器翻译时,我就意识到梯度下降训练的模型是一个比我更好的老师。所以我不再学习语言规则,而是让梯度下降替我做这件事。另一点是,可扩展的通用架构终将赢得长期胜利。今天是tokens,明天可能是我们在计算机上执行的动作,它会开始模仿我们的活动,自动化我们大量的工作。所以正如我们所讨论的,transformer的自注意力机制具有极大的通用性,能让梯度下降发挥最大效用。第二个感到高兴的是物理方面的,我们随着时间推移不断优化神经网络结构和算法,以适应加速器。所以我们把这些因素结合起来,这种模式一直在重复。每当我们有新的算法突破时,它都学得更快更好。Noam Shazeer:就是这样!整个深度学习领域都是如此,我们每次都是在构建一个适应GPU特性的AI模型,而不是反过来的。所以现在我们实际上是在为超级计算机构建人工智能模型,你们都懂的哈哈。黄仁勋:只是友情提示,我们正在做适合新模型的超级计算机。
    来自 什么值得买
    03-22 08:17
查看全部