首页 > 苹果 > 狼人变体规则Lycanthropic(Anthropic推出首个企业产品和免费iPhone应用程序秦汉与林青霞:二十年苦恋难成真)
2024
05-02

狼人变体规则Lycanthropic(Anthropic推出首个企业产品和免费iPhone应用程序秦汉与林青霞:二十年苦恋难成真)

鞭牛士报道,5月2日消息,亚马逊投资的人工智能公司Anthropic 周三宣布推出其首个企业产品和免费 iPhone 应用程序。

这家生成式人工智能初创公司是 Claude 背后的公司,Claude 是聊天机器人之一,就像 OpenAI 的 ChatGPT 和Google一样

,在过去的一年里人气爆炸式增长。

Anthropic 由前 OpenAI 研究高管创立,支持者包括 Google、Salesforce和亚马逊,在过去的一年里,它完成了五笔不同的融资交易,总金额约为 73 亿美元。

Anthropic 联合创始人 Daniela Amodei 表示,这项名为 Team 的新企业计划在过去几个季度一直在开发中,涉及技术、金融服务、法律服务和医疗保健等行业 30 至 50 名客户的 beta 测试。

他在接受 CNBC 采访时表示,并补充说,这项服务的想法部分源于许多客户对专用企业产品的需求。

「我们从企业听到的大部分信息是,人们已经在办公室使用Claude了。」阿莫代说。

Team 计划提供对 Anthropic 的所有三个最新 Claude 模型的访问,增加了使用限制、管理工具和计费管理,以及更长的上下文窗口,这意味着企业能够进行多步骤对话和上传。

据 Anthropic 称,研究论文和处理法律合同等长文件。根据新闻稿,其他即将推出的功能包括引用可靠来源来验证人工智能生成的声明。

按月计费时,团队产品的费用为每个用户每月 30 美元。它至少需要五个用户。

Anthropic 的第一个 iOS 应用程序对所有计划的用户都是免费的,并且从周三开始也可以使用。它提供与网络聊天的同步以及从智能手机上传照片和文件的功能。

还计划推出 Android 应用程序。阿莫迪告诉 CNBC:实际上,我们刚刚聘请了第一位 Android 工程师,因此我们正在积极开发 Android 应用程序。

他补充说,该工程师将于下周开始工作。

Team 计划和 iOS 应用程序的消息是在Anthropic 首次推出 Claude 3一个多月后发布的,Claude 3 是一套 AI 模型,据说是迄今为止最快、最强大的。这些新工具被称为 Claude 3 Opus、Sonnet 和 Haiku。

该公司表示,新模型中能力最强的 Claude 3 Opus 在本科水平知识、研究生水平推理和基础数学等行业基准测试上优于 OpenAI 的 GPT-4 和谷歌的 Gemini Ultra。这也是Anthropic首次提供多模式支持:用户可以上传照片、图表、文档和其他类型的非结构化数据进行分析和解答。

其他型号 Sonnet 和 Haiku 比 Opus 更紧凑且更便宜。该公司拒绝透露训练 Claude 3 需要多长时间或花费多少,但它表示 Airtable 和Asana等公司帮助对模型进行 A/B 测试。

在周三发布的一份新闻稿中,Anthropic 确认目前使用 Claude 的其他客户包括辉瑞 (Pfizer)、Asana、Zoom、Perplexity AI、Bridgewater Associates 等。

根据 PitchBook 的数据,生成式 AI 领域在过去一年中呈爆炸式增长,2023 年近 700 笔交易的投资额达到创纪录的 291 亿美元,交易价值较上年增长超过 260%。这已成为 每个季度企业财报电话会议上最热门的短语。

学者和伦理学家 对该技术传播偏见的倾向表示了严重担忧 ,但即便如此,它还是很快进入了学校、在线旅游、医疗行业、在线广告等领域。

去年这个时候,Anthropic 完成了 A 轮和 B 轮融资,但它只推出了聊天机器人的第一个版本,没有任何消费者接触或大张旗鼓。

现在,它是最热门的人工智能初创公司之一,其产品在企业和消费者领域与 ChatGPT 直接竞争。

Claude3 可以概括大约 150,000 个单词,或者一本相当大的书,关于《白鲸》或《哈利·波特与死亡圣器》的长度范围。其之前的版本只能概括75,000字。用户可以输入大型数据集,并要求以备忘录、信件或故事的形式进行摘要。

相比之下,ChatGPT 可以处理大约 3,000 个单词。

一月份,OpenAI 因其企业产品而受到批评,因为它悄悄撤销了ChatGPT 及其其他人工智能工具的军事使用禁令。其政策仍然规定,用户不应使用我们的服务来伤害自己或他人,包括开发或使用武器。

在这一变化之前,OpenAI 的政策页面明确指出,该公司不允许将其模型用于具有高人身伤害风险的活动,包括:武器开发以及军事和战争。

Anthropic 对 Claude 军事用途的立场与 OpenAI 的最新政策类似。

阿莫迪对 CNBC 表示:我们今天划定界限的方式是,我们不会根据行业或业务进行歧视,但我们有一个可接受的使用政策,规定了你可以使用 Claude 做什么,不能使用 Claude 做什么。

他补充道,当然,世界上任何不在受制裁国家的企业,并且满足基本业务要求,都可以使用 Claude 进行各种后台应用程序和类似的事情,但我们有......非常严格的指导在Claude周围,不被用于武器,基本上是任何可能导致暴力或伤害他人的东西。

本文》有 0 条评论

留下一个回复