文章指出,随着AI成为投资热点,很多投资人表面热情看AI项目,实则频繁换口,技术能力有限,融资意愿不强,存在“假装看AI”的现象。部分投资人还利用交流之名获取创业者商业机密,损害创业者对投资行业的信任。作者认为,假装看AI的行为可能危害整个投资行业的诚信体系,投资人应该保持专业态度,与创业者进行真诚交流。
相关AI新闻推荐

马斯克的新AI聊天机器人Grok 4:是追求真理还是个人观点的代言?
马斯克旗下xAI发布Grok4 AI聊天机器人,标榜"追求真理"却引发争议。测试显示该AI在敏感话题上常引用马斯克个人社交媒体观点,如巴以冲突、移民政策等。此前Grok曾因反犹言论被迫修改系统,暴露出将AI与创始人观点绑定的风险。虽然Grok4在部分测试中超越竞争对手,但频繁失误和缺乏透明度(未发布系统卡)可能影响其商业化前景。目前xAI正推动300美元/月的订阅服务和企业API应用。

城商行掀起大模型招标潮,百万级投入成行业新风口!
中小银行加速布局大模型技术,超10家城商行近期启动相关项目招标,投资规模普遍在200-600万元之间。这些银行主要聚焦应用层开发,旨在优化服务流程、提升运营效率。典型案例显示,广西北部湾银行等项目报价达数百万元。相比国有大行动辄上亿的投入,城商行更注重性价比和实际应用效果。业内报告指出,银行业大模型应用正从试点走向多场景落地,推动行业智能化转型。

亚马逊欲加码投资 Anthropic 计划共建全球最大数据中心!
亚马逊拟追加投资AI初创公司Anthropic,巩固战略合作关系。此前已投资80亿美元,新一轮投资或使其成为最大股东之一。双方将合作建设全球最大数据中心项目,为Anthropic提供算力支持,并向AWS客户销售其技术。Anthropic由前OpenAI员工创立,其Claude模型被视为ChatGPT主要竞争对手。亚马逊还计划投资110亿美元在印第安纳州扩建数据中心,支持AI业务发展。此次合作将强化双方在AI领域的竞争力。

Hugging Face 推出 Reachy Mini 机器人,赋能开源 AI 开发者
Hugging Face推出两款Reachy Mini桌面机器人套件:无线版449美元和Lite版299美元,专为AI开发者设计。这些开源机器人可编程、支持Python,预装演示程序并与Hugging Face Hub平台深度集成。CEO表示产品基于社区反馈开发,旨在让开发者自由创造AI应用。Lite版下月发货,无线版年底交付。公司强调开源硬件理念,反对机器人技术被少数公司垄断。

微软利用 AI 技术节省5 亿美元成本并再度裁员近万人
微软AI应用成效显著:呼叫中心节省5亿美元成本,35%新代码由AI生成,GitHub Copilot用户达1500万。但AI推广也带来结构性调整,公司宣布裁员9000人以控制AI基础设施投资成本,延续今年累计裁员2.4万人的趋势。科技行业普遍面临AI自动化带来的岗位变革,Salesforce等企业30%工作已由AI完成,引发员工"替代焦虑"。AI在提升效率的同时,正重塑行业就业格局。

智元机器人公布机器人运动控制模型相关专利
智元机器人公司近日公布一项机器人运动控制模型训练专利。该专利通过对比机器人实际接触序列与预期接触序列的差异,生成摆动激励值来优化模型参数。其中预期接触序列基于相位变量和步态映射关系生成,包含摆动相占空比和足间相位偏移量等信息。该方法能有效提升机器人运动控制精度,使机器人动作更加精准稳定。

Moonvalley发布Marey Realism v1.5:原生1080P AI视频模型,零版权风险引领行业新风向!
Moonvalley发布全新AI视频生成模型Marey Realism v1.5,具备三大核心优势:原生1080P高清画质,基于授权训练数据确保零版权风险,以及精准解读复杂提示的创作能力。该模型支持文本/图像转视频,能生成电影级运动光影效果,未来还将推出姿势传递功能。这一突破性产品为影视制作、广告创意等领域提供了安全高效的AI创作工具,推动行业技术升级。

美团再度投资具身智能领域,星海图完成超1亿美元融资
具身智能公司星海图完成超1亿美元A轮系列融资,美团龙珠、今日资本领投。公司估值较年初增长3倍,累计融资近15亿元,资金将用于VLA模型研发及产能扩张。核心团队由Waymo前工程师领衔,已推出EFM-1双系统架构,整合视觉语言与动作模型。美团持续加码具身智能赛道,近年已投资宇树科技等多家头部企业。行业仍处基建期,星海图通过分阶段融资适应市场节奏,推动智能制造成果转化。(140字)

研究发现:AI 聊天机器人易受信息过载攻击,安全隐患引发担忧
英特尔等研究团队发现大型语言模型存在"信息过载"安全漏洞。研究人员开发出"InfoFlood"攻击系统,通过填充大量信息使AI模型安全过滤器失效,诱使其回答本应拒绝的问题。实验显示,即使ChatGPT等先进AI具备多重防护,仍可能因信息过载而误判恶意请求。该研究揭示了AI在处理复杂信息时的脆弱性,团队已着手向相关企业通报此安全隐患。

AI也怕 “信息轰炸”?新研究揭示聊天机器人可被诱导违反安全规则
研究人员发现新型AI攻击方法"信息过载"(InfoFlood),通过向聊天机器人发送过量信息可绕过安全防护。该系统利用虚假引用和无关声明干扰AI判断,使ChatGPT等模型违反安全规则。研究表明传统关键词过滤在面对信息轰炸时会失效,恶意用户可借此植入有害内容。专家呼吁加强AI安全措施,推动相关伦理讨论。