嘿,这是黑猫。信任咱们我们都知道了,国行 iPhone 不会接入DeepSeek,而是接入阿里、百度。不少果粉关于苹果此举,都感到不理解,只能眼睁睁地错失 DeepSeek 这个
它最中心的功用,就是在方便指令这一 iOS 原生运用里,集成DeepSeek 大模型。
让果粉们在不凭借任何APP的情况下,都能随时调用 DeepSeek-R1 进行文字对话。轻量、精约、强壮。
文字对话是最传统的用法,若停步于此,那也还不错,仅仅我不是一个满足于“还不错”的人。
而图片辨认的需求,其实是广泛存在的,苹果自家的Apple Intelligence,也内置了视觉模型,还能够和本地日子运用进行联动。
为了完成图片对话功用,我其实尝试了好几天。并不是这个功用有多难,而是由于捷径的约束,我无法直接发送图片给 DeepSeek 。
现在「国行苹果人工智能」捷径,晋级至V4版别。新增「魔猫之眼」视觉模型,能够调用 DeepSeek Vl2视觉模型,进行图片对话。
这就意味着它的运用场景变得更丰厚,比方:图片取字、图片翻译、物体辨认、穿搭害处、日常问题咨询、乃至面相剖析,都是能轻松完成的。
放逐,我对它的交互也进行了很多简化。只需挑选「魔猫之眼」,在相册里挑选图片,输入问题,等候10秒-20秒即可收到答复。
至此,「国行苹果人工智能」捷径的完善度,总算是赶上了 APP 的 70%。