TL;DR:
那个陪你点来点去,但永远不懂你在干嘛的鼠标指针,现在要被谷歌灌进AI了。以后你指着屏幕说“这个改成那个”,它就能秒懂,再也不用费劲巴拉地复制粘贴写提示词了。DeepMind CEO都直呼“很神奇”。
别骂了,那只“呆头鹅”鼠标,它终于要开窍了。
如果你是个朝九晚五的“赛博打工人”,你一定经历过这种令人血压升高的场景:
为了改一张图里的一个字,你得先截图,打开AI工具,粘贴图片,再输入一段小作文描述上下文……等你完成这一套“仪式”,灵感早就凉透了。
这不能怪你,要怪,就怪那个陪你加班了大半个世纪、却永远像个“木头人”的鼠标指针。自1970年代诞生以来,它就只会干一件事:告诉你光标在哪。至于你在看啥?你想干啥?它一概不知。
但就在今天,谷歌DeepMind对着这只“呆头鹅”的脑袋里,狠狠注入了一管Gemini AI。 这个名为 “AI-enabled pointer”(AI智能指针) 的原型,瞬间让鼠标开窍了。
Demis Hassabis(那个诺贝尔奖得主)亲自下场发帖,形容这个体验“相当神奇”(pretty magical)1。能让这位大佬发出这种感慨,事情显然不简单。
你的“嘴替”,AI来做
以前的AI更像一个“住在大house里的高人”——你想找它帮忙,得先穿过花园(切窗口)、敲三下门(复制粘贴)、再把来意写在纸上递进去(写提示词)。
而谷歌这次的想法很“野”:凭啥要我去找你?AI得主动来伺候我。
这个新指针的杀手锏就是四个字:指哪打哪。
你不需要再费力描述“我正在看的那个东西是什么”,因为它也能“看见”了。系统会捕捉你光标悬停处的所有视觉和语义信息,你只需要像跟同事聊天一样,随口说一句:
- “把这个便签改成橙色” ➡️ 光标指着的便签立刻变色。
- “这个餐厅,按这张图的风格画个菜单” ➡️ 两个手指+一句话,搞定。
这就是DeepMind反复强调的 “拥抱这个和那个的力量” 。2 提示词的本质从来不是文字,而是意图。现在,你一个眼神(实际上是光标),AI就能秒懂你的意图。
从像素到“像素人”,一个新时代要来了?
这背后是四个“心机满满”的设计原则:保持流畅、指给它看、拥抱指代词、让像素变成可操作的实体。
别被这些术语吓到,你只需要知道结果:屏幕上的像素,第一次有了“语义”。
你指着一栋建筑的图片,它能识别出“这是个地点”,然后“给我导航”就蹦出来了; 你指着一份手写便条,它能认出字,然后自动生成一份待办清单; 你指着邮件里的一个日期,说“创建日历事件”,它立刻照办。
谷歌把这叫“Magic Pointer”,并已经开始落地了。 目前已经在Google AI Studio开放了两个Demo(图片编辑和地图找点),并且很快会集成到Chrome浏览器和今年秋季上市的Googlebook笔记本里。34
等等,这难道不是我的终极“赛博外挂”?
看到这,你可能已经颅内高潮了。但冷静,把这只“聪明指针”放回历史长河里,你会发现更有意思的事:
- 1973年,鼠标让人类学会了“指”图标。
- 2007年,iPhone让人类学会了“摸”屏幕。
- 2022年,ChatGPT让人类学会了“打字”写提示词。
- 2026年?这只指针教你“指一下然后说出来”。
每一次交互跃迁,都是机器在靠近人类,而不是人类去迁就机器。这一次,谷歌想压缩的是那个最烦人的“解释上下文”的步骤。
当然,从酷炫的演示到日常的稳定好用,还有一段路要走。比如识别准确率、跨应用兼容性,以及最重要的——你的屏幕信息会被AI怎么“看”和处理? 隐私这关过不了,再炫酷也是白搭。
但不可否认,这可能是自鼠标诞生以来,人机交互最接近“心灵感应”的一次实验。
那个陪你50年的小箭头,或许真的要在下一个50年里,开始尝试理解你了。
-
Demis Hassabis on X: “Really cool work...”·x.com·@demishassabis·(2026/5/15)·检索日期2026/5/15 ↩︎
-
DeepMind官方博客: Shaping the future of AI interaction by reimagining the mouse pointer·deepmind.google·(2026/5/15)·检索日期2026/5/15 ↩︎
-
iThome报道: Google DeepMind替AI時代重塑沿用60年的滑鼠游標·ithome.com.tw·(2026/5/15)·检索日期2026/5/15 ↩︎
-
HotHardware报道: Google DeepMind Launches Interactive AI Magic Pointer Demos·hothardware.com·(2026/5/15)·检索日期2026/5/15 ↩︎