团团资源网
当前位置: 首页>科技资讯>微软携手上海“600号”医院,以AI赋能老年痴呆治疗新纪元

微软携手上海“600号”医院,以AI赋能老年痴呆治疗新纪元

时间:2024-10-12 06:29:39

人气:0

编辑:团团资源网

近日,微软亚洲研究院与上海市著名的精神健康机构——市精神卫生中心(广为人知的“600号”)携手,正合力探索人工智能技术在阿尔茨海默病治疗干预领域的创新应用,此项合作有望为该疾病的治疗开辟新径。

微软携手上海“600号”医院,以AI赋能老年痴呆治疗新纪元

面对全球人口老龄化趋势,阿尔茨海默病等认知症成为重大健康挑战,目前尚无药物能完全治愈阿尔茨海默病,但及早诊断和干预可延缓病程。

此次合作基于微软Azure OpenAI服务中的多模态大模型,开发了名为忆我”(ReMe)的个性化认知训练框架。

该框架旨在通过自动化认知训练,提供新的数字化训练方法,帮助患者延缓认知功能衰退。

当前,临床认知训练主要依赖人工或软件驱动的数字疗法,但这些方法存在成本高、缺乏个性化和互动性等问题。

微软亚洲研究院开发的忆我”框架则通过文字、图像、语音等多种模态的输入输出,提供更全面的认知训练方法,使训练更贴近患者的日常生活。

忆我”框架通过手机或可穿戴设备上传个人记忆内容,然后进行个性化的情景记忆或世界知识训练。

此外,该工具还包括交互式评估,以追踪患者认知水平,并根据需要调整训练任务。

微软亚洲研究院副院长邱锂力表示,该研究计划针对早期阿尔茨海默病患者,并期望能尽快进入临床应用。

微软CTO:规模定律引领AI新时代,大型语言模型潜力无限

近日消息,微软的首席技术官凯文·斯科特在最近的一次访谈中,于红杉资本的播客平台上再次强调了他的观点,即巨型语言模型的“规模法则”仍然是激发AI技术革新的一大驱动力,这一论断是在面对部分行业专家对发展瓶颈的质疑时提出的。

微软CTO:规模定律引领AI新时代,大型语言模型潜力无限

斯科特表示:“其他人可能持不同观点,但我认为规模化并未达到边际收益递减的临界点。我想让人们理解这里存在着一个指数级提升的过程,遗憾的是,你只能每隔几年才能看到一次,因为建造超级计算机然后用它们训练模型都需要时间。”

2020 年,OpenAI 研究人员探索了 LLM 的“规模定律”,该定律表明,随着模型变得更大(参数更多)、训练数据更多以及拥有更强大的计算能力,语言模型的性能往往会呈可预测的提升。这一定律意味着,仅仅增加模型规模和训练数据,就能够显著提升人工智能能力,而无需取得根本性的算法突破。

然而,此后也有其他研究人员对“规模定律”的长期有效性提出质疑。不过,该概念仍是 OpenAI 人工智能研发理念的基石。斯科特所持的乐观态度与部分人工智能领域批评人士的观点形成鲜明对比,一些人认为,大型语言模型的进步在类似 GPT-4 的模型级别已经停滞不前。这种观点主要基于对谷歌 Gemini 1.5 Pro、Anthropic 的 Claude Opus 以及 OpenAI 的 GPT-4o 等最新模型的非正式观察和一些基准测试结果。一些人认为,这些模型并没有像前几代模型那样取得飞跃性的进步,大型语言模型的发展可能正在接近“边际收益递减”的阶段。

人工智能领域著名批评人士 Gary Marcus 在今年 4 月写道:“GPT-3 明显优于 GPT-2,GPT-4(发布于 13 个月前)也明显强于 GPT-3。但之后呢?”

斯科特所持的立场表明,像微软这样的科技巨头仍然认为投资大型人工智能模型是合理的,他们押注于持续取得突破。考虑到微软对 OpenAI 的投资以及大力营销自家的人工智能协作工具“Microsoft Copilot”,该公司强烈希望维持人工智能领域持续进步的公众认知,即使技术本身可能遇到瓶颈。

另一位人工智能领域知名批评人士 Ed Zitron 最近在其博客上写道,有些人支持继续投资生成式人工智能的一个理由是,“OpenAI 掌握着我们不知道的某种技术,一项强大而神秘的技术,能够彻底击溃所有怀疑者的质疑。”他写道,“但事实并非如此。”

公众对大型语言模型能力提升放缓的认知,以及基准测试的结果,部分原因可能在于人工智能最近才进入公众视野,而事实上,大型语言模型已经发展多年。OpenAI 在 2020 年发布 GPT-3 之后的三年中一直持续研发大型语言模型,直到 2023 年发布 GPT-4。许多人可能是在 2022 年底利用 GPT-3.5 开发的聊天机器人 ChatGPT 上线后才开始意识到类似 GPT-3 的模型的强大功能,因此在 2023 年 GPT-4 发布时才会觉得能力提升巨大。

斯科特在采访中反驳了人工智能进步停滞的观点,但他同时也承认,由于新模型往往需要数年才能开发,因此该领域的数据点更新的确较慢。尽管如此,斯科特仍然对未来版本的改进充满信心,尤其是在当前模型表现不佳的领域。

“下一个突破即将到来,我无法确切地预测它何时出现,也不知道它会取得多大的进步,但它几乎肯定会改善目前那些不够完善的方面,比如模型的成本过高或过于脆弱,让人难以放心使用,”斯科特在采访中表示,“所有这些方面都会得到改善,成本会降低,模型会变得更加稳定。届时,我们将能够实现更加复杂的功能。这正是每一代大型语言模型通过规模化所取得的成就。”

微软揭晓Phi-3.5 AI模型:突破性128K上下文窗口,首推混合专家系统

近日消息,微软公司最新发布的Phi-3.5系列AI模型引起了业界的广泛关注,特别是其中的Phi-3.5-MoE,作为该系列的首个混合专家模型(MoE)版本,标志着微软在AI技术研究上的又一重要里程碑。

微软揭晓Phi-3.5 AI模型:突破性128K上下文窗口,首推混合专家系统

本次发布的 Phi-3.5 系列包括 Phi-3.5-MoE、Phi-3.5-vision 和 Phi-3.5-mini 三款轻量级 AI 模型,基于合成数据和经过过滤的公开网站构建,上下文窗口为 128K,所有模型现在都可以在 Hugging Face 上以 MIT 许可的方式获取。

Phi-3.5-MoE:首个混合专家模型

Phi-3.5-MoE 是 Phi 系列中首个利用混合专家(MoE)技术的模型。该模型在 16 x 3.8B MoE 模型使用 2 个专家仅激活了 66 亿个参数,并使用 512 个 H100 在 4.9T 标记上进行了训练。

微软研究团队从零开始设计该模型,以进一步提高其性能。在标准人工智能基准测试中,Phi-3.5-MoE 的性能超过了 Llama-3.1 8B、Gemma-2-9B 和 Gemini-1.5-Flash,并接近目前的领先者 GPT-4o-mini。

Phi-3.5-vision:增强型多帧图像理解

Phi-3.5-vision 共有 42 亿个参数,使用 256 个 A100 GPU 在 500B 标记上进行训练,现在支持多帧图像理解和推理。

Phi-3.5-vision 在 MMMU(从 40.2 提高到 43.0)、MMBench(从 80.5 提高到 81.9)和文档理解基准 TextVQA(从 70.9 提高到 72.0)上的性能均有提高。

Phi-3.5-mini:轻量级、强功能

Phi-3.5-mini 是一个 38 亿参数模型,超过了 Llama3.1 8B 和 Mistral 7B,甚至可媲美 Mistral NeMo 12B。

该模型使用 512 个 H100 在 3.4T 标记上进行了训练。该模型仅有 3.8B 个有效参数,与拥有更多有效参数的 LLMs 相比,在多语言任务中具有很强的竞争力。

此外,Phi-3.5-mini 现在支持 128K 上下文窗口,而其主要竞争对手 Gemma-2 系列仅支持 8K。

微软宣布战略调整,Office 365 Connectors将于十月正式退役

7月4日消息,微软公司于7月3日通过官方社区发表重要公告,宣布了关于Office 365 Connectors服务的重大调整计划。

微软宣布战略调整,Office 365 Connectors将于十月正式退役

根据公告内容,自2024年8月15日起,微软Teams用户将无法再为云服务创建新的Office 365 Connectors实例,而从10月1日开始,所有现存的Connectors将逐步停止服务,标志着这一曾经深受用户喜爱的功能即将退出历史舞台。

作为 Outlook 2016 以及网页版 Outlook 中 Groups 功能一部分,微软于 2016 年推出了 Office 365 Connectors,让第三方连接其他公司的一些应用程序和服务。

微软推荐现有 Office 365 Connectors 用户尽快迁移到 Teams 应用中的 Power Automate 工作流,翻译其官方介绍如下:

Power Automate 工作流程不仅提供了更深入的 Office 连接器目录,而且还确保您的集成建立在一个可随业务需求增长的架构上,并为您的信息提供最大的安全性。

目前使用 Office 365 Connectors 的用户应过渡到 Power Automate,以保持其服务的顺利运行。

相关推荐
热门应用排行榜
热门游戏排行榜