谷歌向OpenAI竞争对手Anthropic追加投资10亿美元 (谷歌向您的发送了通知)

admin1 2周前 (01-22) 阅读数 28 #银行

媒体1月22日信息,英国《金融时报》刚刚报道称,谷歌向 OpenAI 竞争对手 Anthropic 追加投资 10 亿美元(媒体备注:以后约 72.78 亿元人民币)。

Anthropic 由前 OpenAI 高管 Dario Amodei 和 Daniela Amodei 兄妹于 2021 年创立,其 Claude 模型被视为 GPT-4 的关键竞争对手。

谷歌曾在 2023 年终对 Anthropic 投资 5.5 亿美元,年底又表示对 Anthropic 追加最高 20 亿美元投资。同年 9 月,亚马逊也宣布与 Anthropic 展停战略协作,并向其投资 40 亿美元。

除取得亚马逊、谷歌的支持外,Anthropic 还取得了 Spark Capital 和 Menlo Ventures 等传统硅谷投资者的资助。


前海方舟是一家怎样的投资机构,关键投资战略和品格是什么

方舟投资控制公司,由著名投资者凯西·伍德指导,近期宣布将其5400万美元的方舟风险基金投入到人工智能范围的领军企业OpenAI。 这一举动表现了伍德对科技趋向的敏锐感知和大胆战略。 OpenAI作为人工智能新星,引领行业前沿,方舟投资控制公司对OpenAI的投资,是对其实力与未来开展潜力的必需。 同时也展现了方舟风险基金在人工智能范围的规划,显示了方舟投资控制公司对科技未来的坚决决计。 方舟投资控制公司选择投资OpenAI,不只基于其对未来科技趋向的深化研讨和判别,更因其置信人工智能将成未来科技开展的驱动力。 而OpenAI作为该范围的佼佼者,成为方舟投资控制公司投资目的。 方舟投资控制公司投资规划不只仅局限于OpenAI,还投资了人工智能竞争对手Anthropic,标明公司旨在经过多元化投资分散风险,同时掌握人工智能范围开展机遇。 方舟风险基金的投资掩盖了多家公共和私营公司,包括SpaceX、Epic Games等科技范围领军企业,共同构成了方舟投资控制公司对科技未来开展的片面规划。 方舟投资控制公司关于科技的投资规划表现了其对未来科技开展的深入洞察和坚决决计。 伍德以为未来科技将重塑社会相貌,方舟投资控制公司努力于经过投资规划抓住这一历史机遇。 方舟投资控制公司面前有一支由顶级迷信家和投资者组成的团队,他们共同研讨、判别科技趋向,为公司的投资决策提供支持。 这使得方舟投资控制公司能够在剧烈竞争中崭露头角,成为科技投资范围的佼佼者。 综上所述,方舟投资控制公司对OpenAI和Anthropic的投资是其规划的一部分。 这一举动展现了伍德和方舟投资控制公司的洞察力与大胆战略,也提醒了未来科技有限或许。 在伍德的引领下,未来科技将拥有更宽广的开展空间。

起底OpenAI「国王」Ilya:师从Hinton,为了他,马斯克与谷歌开创人彻底分裂

OpenAI宫斗大戏终于迎来了第一季的大结局:Sam Altman最后戴着访客证分开了OpenAI,和Greg Brockman开车分开加州去到了华盛顿州,参与了微软。 如今OpenAI董事会中,只要首席迷信家Ilya Sutskever还在OpenAI任职。 这位俄罗斯出生的AI研讨人员,突然之间就从幕后走到了前台,成为了OpenAI的相对中心。 为了招募Ilya,马斯克不惜与拉里佩奇分裂。 Ilya Sutskever出生于俄罗斯下诺夫哥罗德,在苏联时期,那个城市还叫高尔基。 他5岁时随家人移民到以色列,在耶路撒冷长大。 Sutskever于2000年至2002年间就读于以色列开加大学。 之后,他随家人移民加拿大,并转学到多伦多大学。 他在2005年在多伦多大学取得数学理学学士学位,2007年取得数学理学硕士学位,2013年取得计算机迷信博士学位。 他的博士生导师是Geoffrey Hinton。 他和Hinton一同开发的AlexNet,在ImageNet大赛上,碾压了其他大厂,将识别准确率优化了60%。 2012年11月至12月,Sutskever在斯坦福大学跟随吴恩达做了大约两个月的博士后研讨。 随后,在Hinton的呼唤下,他前往多伦多大学并参与了Hinton的新研讨公司DNNResearch。 在那场知名的「网络,谷歌,DeepMind,微软商战」的竞价拍卖中,谷歌笑到了最后,成功招募到了Hinton和Ilya。 Ilya参与Google Brain后,与另外两位同事协作创立了「序列到序列学习算法」,并介入了TensorFlow的开发。 2015年底,他被马斯克挖到了OpenAI,成为了结合开创人兼首席迷信家。 位于OpenAI权利中心的男人Ilya接受了《麻省理工学院技术评论》(MIT Technology Review)的长篇采访。 这位以色列裔加拿大人通知该杂志,他的新研讨重点是如何防止超级人工智能的失控,虽然目前它还不存在。 而在往年早些时刻,基于相同的目的,Ilya的导师,人工智能教父Hinton分开了谷歌。 Hinton正告说,人工智能公司的军备竞赛正在给人类形成风险,如OpenAI的ChatGPT,我们很难防止坏人应用它做坏事。 2012年,Hinton和他的两位研讨生,其中包括Ilya,开发了大名鼎鼎的AlexNet,展现了神经网络在形式识别方面的弱小才干,——比人们普遍看法到的要强得多。 之后,谷歌收买了Hinton的公司DNNresearch,并延聘了Ilya。 在谷歌任务时期,Ilya协助证明了AlexNet在图像方面的形式识别才干相同适用于单词和句子。 被马斯克挖到OpenAI后,Ilya在开发大型言语模型(LLM)方面发扬了关键作用,包括 GPT-2、GPT-3 和文本到图像模型DALL·E。 而去年年底发布的ChatGPT在不到两个月的时期里取得了一亿用户,掀起了以后的人工智能热潮。 Ilya说,ChatGPT让人们看到了人工智能的或许性,虽然有时它前往的结果并不正确,让人们事与愿违。 Ilya最近的关注点放在了人工智能的潜在风险上,他以为超级人工智能有或许在十年内出现。 而关于人工智能安保性的争论,正是OpenAI指导层变天的导火索。 OpenAI董事会知多少?Altman出局、Brockman辞职,OpenAI奉上的宫斗大戏的热度堪比自家的开发者大会——相比于开发,还是吃瓜更关键。 为了更好地吃瓜,小编在这里帮大家理出一条OpenAI董事会变化的时期线。 OpenAI成立于2015年12月11日,董事会由Elon Musk和Sam Altman担任结合主席。 到了2016年12月31日,董事会参与了Chris Clark(担任COO)和Jonathan Levy(秘书、财务主管)。 2017年3月,Open Philanthropy向OpenAI捐赠了3000万美元,其开创人Holden Karnofsky参与了OpenAI的董事会。 2017年12月31日,地下资料显示董事会成员新增了Greg Brockman(与Altman同进退的好兄弟)和Ilya Sutskever(上方提到被马老板挖过去的)。 2018年2月20日,马斯克被从董事会中除名。 官方表示马斯克分开是为了防止潜在的抵触,但记者报告说,指导层的分歧才是关键要素。 2018年3月,LinkedIn开创人兼Greylock合伙人Reid Hoffman参与董事会。 2018年4月,Quora首席执行官兼前Facebook首席技术官Adam DAngelo参与董事会。 2018年9月,Sue Yoon参与董事会。 之后在2019年11月,她分开了董事会。 到了2020年12月31日,官方的地下资料显示,此时的董事会成员为:Ilya Sutskever、Greg Brockman、Sam Altman、Reid Hoffman、Shivon Zilis、Holden Karnofsky、Adam D’Angelo、Tasha McCauley。 2021年5月3日,众议院共和党议员、前中央情报局特工Will Hurd参与董事会。 2021年9月8日,乔治城大学安保与新兴技术中心主任、前霍尔顿·卡诺夫斯基开放慈善事业主任Helen Toner参与董事会。 2021年秋,Holden Karnofsky辞去了董事会的职务,由于他的妻子Daniela Amodei正在与她的兄弟Dario Amodei一同兴办OpenAI的关键竞争对手Anthropic。 鉴于Helen和Holden经过开放慈善事业的咨询,以及Holden的董事会席位似乎是终身性的,Helen似乎是被Holden选中来接替他的席位。 之后的日子里,一些人由于种种要素分开了董事会,只剩下著名的「六大金刚」:Ilya Sutskever、Greg Brockman、Sam Altman、Adam D’Angelo、Tasha McCauley和Helen Toner。

AI观察|OpenAI开创人突然被免职,安保担忧将如何影响AI未来开展?【走出去智库】

在OpenAI首届开发者大会引发科技圈热议仅仅过去12天后,OpenAI于11月17日突然宣布,开创人Sam Altman被罢免CEO职务,再次震惊了全球科技圈。 围绕此事情引发诸多猜想,业界普遍以为,最关键的分歧应来自OpenAI未来的开展方向。 在首届开发者大会上,OpenAI发布了多项关键技术与产品,并方案强力启动商业扩张。 但是,OpenAI董事会部分红员更为关注AI未来的伦理和安保疑问。 因此,这一事情不只对OpenAI的未来开展形成了庞大的不确定性,也将对整个AI行业的开展方向发生深远的影响。 11月17日,OpenAI董事会突然宣布解雇其CEO Sam Altman,称其与董事会的沟通不够坦诚,因此对其指导才干失去决计。 同时,OpenAI董事会宣布,曾担任CTO的Mira Murati将担任暂时CEO。 在董事会发布信息后几小时内,结合开创人、曾任董事会主席的Greg Brockman表示也将分开公司。 争议焦点在于安保与商业。 作为最受注目的AI平台,OpenAI的指导层变化惹起了普遍关注。 媒体称,Altman的突然分开是由于其与董事会在战略疑问上的分歧:能否应控制AI的开展速度?限制速度是在维护用户还是剥夺人类开展的或许性?多家媒体提及,安保和商业化分歧是此前特斯拉CEO Elon Musk与OpenAI隔绝相关的要素,也是2020年一批OpenAI员工出走并兴办竞争对手公司Anthropic的要素。 相关争议不只是OpenAI开展路途上的阻碍,也是AI范围持久以来面临的焦点。 依据彭博社报道,此次指导层变化还或许与Altman的创业野心有关。 Altman不时在寻求从中东主权财富基金筹集数百亿美元创立一家AI芯片初创公司,该公司产品将对标英伟达公司的处置器。 OpenAI结合开创人、首席迷信家Ilya Sutskever和部分董事会成员对Altman以OpenAI名义筹集资金感到不满,并疑心该公司能否有利于OpenAI的开展前景。 国外媒体高度关注科技范围对OpenAI此次指导层变化的反响。 依据金融时报、彭博社、媒体、福布斯的报道,OpenAI结合开创人Brockman表示震惊和悲伤;微软CEO Satya Nadella对该信息措手不及,十分愤怒,而信息发布后微软股价下跌约2%;预测投注平台Manifold Markets末尾对该变化面前的要素开放投注;硅谷投资人和初创公司不得不面对行业剧增的不确定性。 但也有部分公司持失望态度,如比特币金融服务公司Swan的CEO Cory Klippsten表示,该变化不会坚定人们对科技的决计,反而有利于人们细心了解OpenAI的运转规则和经常使用协议中存在哪些疑问。 开发者大会上的科技与监管也惹起了普遍关注。 Altman在大会上自豪地宣布了多项更新,其中最关键的是OpenAI如今支持用户构建定制的ChatGPT运行程序,且用户无需具有任何编程知识。 此外,OpenAI还推出了现有GPT-4言语模型的turbo版本,并发布了经常使用其人工智能技术的运行程序商店。 在会议上,OpenAI还宣布其旗舰产品ChatGPT曾经拥有1亿用户。 科技范围,尤其是开发者社区,对DevDay的兴奋之情溢于言表。 Octane AI CEO Matt Schlicht称誉OpenAI在大会上的表现为“大胆的梦想家”。 开源组织Nous Research的战略与运营主管Baran Kavusturucu表示,人工智能是一个社区,一切公司正在共同推进该范围的高速行进。 人工智能初创公司AgentOps结合开创人Alex Reibman称誉开发者大会是人工智能范围的“超级碗”,由于先进的技术效果将使全范围获益。 但是,也有少部分从业者不赞同这种狂欢的心情,呼吁找到更安保的AI运作途径。 在人工智能范围,从业者、投资人和媒体之间的讨论集中在:人工智能模型能否应该开源?有什么开源替代方案?能否应遭到更严厉的监管,如何监管?人工智能初创公司的前景如何?以及,自从ChatGPT走红市场以来就备受争议的疑问:人工智能将如何影响人类的未来?AI带来的风险与应战也不时引发业内的剧烈争议。 10月24日,包括图灵奖取得者杰弗里·辛顿(Geoffrey Hinton)、约书亚·本吉奥(Yoshua Bengio)和清华大学交叉信息研讨院院长姚期智在内的24名人工智能专家结合宣布文章,呼吁各国政府采取执行控制AI带来的风险。 这是往年以来,人工智能专家签署的关于AI风险的第三份关键声明。 此外,往年3月,包括特斯拉开创人埃隆·马斯克、本吉奥和罗素在内的数万人签署了一封地下信,呼吁人工智能实验室“立刻暂停训练比GPT-4更弱小的人工智能系统至少6个月”。 5月,非营利组织“人工智能安保中心”发布的声明只要一句话“减轻AI带来的灭绝风险,应该与大盛行病和核抗争等其他社会规模的风险级别一样,成为一个全球性的优先事项。 ”该声明由350多名著名学者和行业首领签署,其中也包括Sam Altman。 这些专家指出,AI的开展或许带来的灭绝级风险,要求对其坚持高度警觉,采取必要措施以确保其安保开展。 AI企业与研讨机构要求在团体利益与社会利益之间寻求平衡,防止片面追求团体与公司利益从而无视或许形成“面向未来的”风险,这要求增强监管措施的研讨。 首先,各国政府要求增强对AI开展的监管,树立迷信合理的监管体系与审查机制,既要奖励AI方面的研讨创新,也要明白企业与研讨机构的责任与义务。 再则,开发AI要求明白其开展的底线与限制,在研发环节中参与必要的控制与控制措施,制止开发或许形成消灭级结果的技术与运行,以最大限制降低风险。 最后,AI带来的风险是全球性的,要求各国在这一疑问上增强深化协作。 首届人工智能安保峰会上发布的《布莱奇利宣言》,达成了指点国际协作的准绳性宣言,在控制AI风险和国际监管协作方面迈出了关键一步。 此次OpenAI董事会解雇CEO的事情,充沛反映出人们关于AI未来开展前景的观念发生了剧烈抵触,既是一个警钟,也是一个契机。 如何确保AI的安保、牢靠和品德的经常使用,成为谁也不能绕开的关键疑问,AI企业要求吸取经验,以推进AI的安康和可继续开展。

版权声明

本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。

热门