AI“红得发紫”,结局会“一地鸡毛”吗?这一次真的不一样

“放弃元宇宙,转战布局AI”,成了近些天各大企业竞相追赶的潮流。

微软据称解散了四个月前组建的工业元宇宙团队;继前两年前入局元宇宙后,三六零(“360”)近日对外公布,计划推出类ChatGPT的demo版产品......“AI热”会成为下一个快速破灭的泡沫吗?

媒体分析认为,AIGC的出现对于风投行业来说,就像“久旱逢甘霖”,目前风投公司掌握着3000亿美元的火药准备入场。同时,正经历着大规模裁员潮的硅谷也急需要下一件让其“抖擞精神”的大事。

但任何事物的出现均无法避免反对的声音,随着人工智能ChatGPT的热浪席卷各行各业,对于人工智能担忧与警惕的声音随之而来,“反ChatGPT”开始成为一股新的势力。

媒体指出,ChatGPT为代表的AI的爆火与元宇宙和NFT的本质不同在于:对许多人来说,元宇宙仍然是一个模糊的概念,但AI的底层技术技已在各个行业被运用了二十年,正在经历技术迭代和加速发展阶段,从软件工程到财务、到运营、到法律、到物流和再到艺术。 因此,尽管此次AI爆火仍然存在泡沫,但不可否认的是其并不会像元宇宙和NFT那样存在“炒概念”之嫌。

华泰电子团队分析指出, 是否拥有大模型将成为科技巨头/科技平台企业的重要分水岭,未来科技巨头之间将展开大模型军备竞赛,科技公司远期投资价值或将被重新定义。

带来了新的革命?

微软自2022年11月发布ChatGPT后,宣布和OpenAI公司合作推出内置ChatGPT的必应搜索、Edge浏览器、Office套件及Azure,让谷歌压力倍增,AI发展速度之快也让市场始料未及。微软董事会成员 Reid Hoffman去年曾表示,“魔法真的出现了” Hoffman解释道:

Copilot正在帮助软件工程师编写多达40%的代码人工智能将改变所有行业,每个人都必须考虑如何运用它。在我们所做的一切中都会出现AI的身影,这是我们所做一切的基础。

一位云计算高管在最新的TEC Town Hall讨论中表示,AIGC的发展不仅会影响搜索引擎,“云革命”可能正在逐渐爆发:

“这是一场非常重要的革命,我认为它和工业革命一样重要。不立即接受它的公司可能会被淘汰。”

媒体分析指出,ChatGPT的出现重新定义了机器学习, 正在开发和推出的深度语言学习模型将会到达另一个高度

以财务中的运用为例,我们如果利用AI分析5000张资产负债表,它可以在几秒钟完成阅读,提取所有有用的财务信息,计算风险评分,并能够对投资组合的风险做出决策。

“AI+”(以AI技术赋能行业的科技企业)还是“+AI”(采用AI技术的传统企业)能够胜出是上一轮AI投资最大的争议。分析指出,当大模型主导的创新周期到来,以GPT-3大模型为例,其需要1750亿数据和数百万、数千万美元的算力投资,壁垒显著提升。

华尔街见闻见智研究认为,由于AIGC拉动对高算力的需求出现指数级增长,云计算厂商对于AI训练以及云服务的资本开支或将重新回暖。

以微软为力,对于搜索引擎的AI功能升级,资本开支已经出现增长趋势。其他厂商很可能在市场需求的风向下,改变原本的资本支出计划。

可以创造新的就业机会?

反对AI发展的经典论述是将其描述成“工作杀手”,但通过媒体采访,公司高管指出:

人工智能将接管人类一开始就不应该做的重复性工作,让人类做更重要的工作。

媒体称,目前高管们对于人工智能的态度是, 人工智能不会取代律师,但“使用人工智能的律师将取代律师” ,分析指出:

“现在有这样一种看法,尤其是在专业行业,如果律师和会计师等专业人士不使用人工智能,他们将被那些使用这些工具的人所取代,因为这些愿意合理利用AI的人将变得更有效率,可以做到更多。 ”

在科技行业中,一位CTO称,他们于四年前开始使用AIGC运行服务请求的实验结果,这导致公司约 89% 的计划外服务请求现在完全自主处理。随着前团队的人员流失为零:

“我们没有裁员。没有人失去工作,我也认为通过 ChatGPT提高效率的人已经取代了那些没有效率的人。”

但另一位高管表示,认为可以将一部分人解放出来,从事更高层次工作的愿景是盲目乐观,在商业世界中可能会产生相反的效果:

“人们开始应对挑战,人们会变得愚蠢,因为我们只是向计算机询问一切。”

关于人工智能的辩论愈发激烈,有高管分析认为AI驱动的制造和自动化对于优化和产量至关重要,如果不用会面临淘汰:

“我们认为现仔公司不寻求人工智能提供解决方案是非常不负责任的,因为它们现在非常强大。”

AI背后的隐忧

媒体分析指出人工智能的风险依旧很多包括:人工智能大量传播的错误信息;偏见; 对人类工作的威胁;版权问题;抄袭问题.....

华泰电子团队指出,ChatGPT是通往AGI(通用人工智能)道路的一次跃迁,但离AGI仍有较远的距离。目前围绕使用ChatGPT等大模型的争议不休,主要围绕在以下方面:

1)信息真实性:大语言模型对事实和逻辑世界缺乏真正理解,生成内容的真实性和可解释性存疑;

2)信息有害性:例如,尽管ChatGPT采用了基于人类反馈的强化学习(RLHF),以实现有害和不真实输出的减少,但如果用户逐步引导,ChatGPT仍然会响应有害指令;

3)使用不当性:在学术界等场景使用ChatGPT并不恰当,多家顶刊已禁止生成式AI工具署名。

“ChatGPT很好玩,但它不是作者”,这是《Science》期刊主编Holden Thorp此前发表的一篇关于人工智能的社论指出, “原创”是Science发表论文的基础,而利用ChatGPT编写文本的行为,等同于从ChatGPT中抄袭:

“我们正在更新编辑政策,要求作者不要使用ChatGPT(或任何其他人工智能工具)生成的文本、数据、图像或是图形。违反这一政策将被Science期刊视为学术不端行为,这与篡改图像或抄袭无异。”