🔥 Gate 广场活动|#发帖赢Launchpad新币KDK 🔥
KDK|Gate Launchpad 最新一期明星代币
以前想参与? 先质押 USDT
这次不一样 👉 发帖就有机会直接拿 KDK!
🎁 Gate 广场专属福利:总奖励 2,000 KDK 等你瓜分
🚀 Launchpad 明星项目,走势潜力,值得期待 👀
📅 活动时间
2025/12/19 12:00 – 12/30 24:00(UTC+8)
📌 怎么参与?
在 Gate 广场发帖(文字、图文、分析、观点都行)
内容和 KDK上线价格预测/KDK 项目看法/Gate Launchpad 机制理解相关
帖子加上任一话题:#发帖赢Launchpad新币KDK 或 #PostToWinLaunchpadKDK
🏆 奖励设置(共 2,000 KDK)
🥇 第 1 名:400 KDK
🥈 前 5 名:200 KDK / 人(共 1,000 KDK)
🥉 前 15 名:40 KDK / 人(共 600 KDK)
📄 注意事项
内容需原创,拒绝抄袭、洗稿、灌水
获奖者需完成 Gate 广场身份认证
奖励发放时间以官方公告为准
Gate 保留本次活动的最终解释权
比Siri更懂iPhone!GPT-4V可“操作”手机完成任意指令,无需训练
原文来源:量子位
一项研究发现:
无需任何训练,GPT-4V就能直接像人类一样与智能手机进行交互,完成各种指定命令。
比如让它在50-100美元的预算内购买一个打奶泡的工具。
它就能像下面这样一步一步地完成选择购物程序(亚马逊)并打开、点击搜索栏输入“奶泡器”、找到筛选功能选择预算区间、点击商品并完成下单这一系列共计9个操作。
因此,有人感叹有了它,Siri渐渐就没有用武之地了(比Siri更懂iPhone)
Siri压根儿一开始就没这么强好嘛。(狗头)
GPT-4V零样本操作iPhone
这项研究来自加州大学圣地亚哥分校、微软等机构。
它本身是开发了一个MM-Navigator,也就是一种基于GPT-4V的agent,用于开展智能手机用户界面的导航任务。
实验设置
在每一个时间步骤,MM-Navigator都会得到一个屏幕截图。
作为一个多模态模型,GPT-4V接受图像和文本作为输入并产生文本输出。
在这里,就是一步步读屏幕截图信息,输出要操作的步骤。
现在的问题就是:
如何让模型合理地计算出给定屏幕上应该点击的准确位置坐标(GPT-4V只能给出大概位置)。
作者给出的解决办法非常简单,通过OCR工具和IconNet检测每一个给定屏幕上的UI元素,并标记不同的数字。
两项能力测试
测试率先在iPhone上展开。
要想成功操纵手机涉及到GPT-4V不同类型的屏幕理解能力:
一个是语义推理,包括理解屏幕输入和阐明完成给定指令所需的动作。
一个是指出每一个动作应执行的精确位置(即该点哪个数字)的能力。
因此,作者开发了两组测试分别进行区分。
1、预期动作描述
只输出应该干啥,不输出具体坐标。
在这个任务中,GPT-4V理解指令并给出操作步骤的准确率为90.9%。
比如在下面这个Safari浏览器的截图中,用户想要打开一个新标签页,但左下角的+号是灰色的,应该怎么办?
看图理解表现得很不错~更多例子可以翻阅论文。
2、本地化动作执行
当让GPT-4V把这些“纸上谈兵”都化为具体行动时(即第二个测试任务),它的正确率有所下降,来到74.5%。
还是上面的例子,它可以遵循自己给出的指令,给出正确的操作数字,比如点击数字9关闭一个标签页。
比如让它从下面的图中开启隐身模式,直接给了wifi处于的“11”位置,完全不搭嘎。
在这个过程中,我们可以看到GPT-4V事无巨细地列出每一步该干什么,以及对应的数字坐标。
整体来看,比其他模型比如Llama 2、PaLM 2和ChatGPT表现得明显要好。
在执行安装、购物等任务中的总体表现最高得分为52.96%,这些基线模型最高才39.6%。
值得一提的是,网友看完这项研究也提出了两个点:
一是我们如何定义任务执行的成功与否。
比如我们想让它买洗手液补充装,只想要一袋,它却加购了六袋算成功吗?
因为,准确率可达95%的Siri都还经常被吐槽很差劲呢。
团队介绍
本研究一共12位作者,基本都来自微软。
分别是加州大学圣地亚哥分校的博士生An Yan,以及微软的高级研究员Zhengyuan Yang,后者本科毕业于中科大,博士毕业于罗切斯特大学。
参考链接:
[1]
[2]