用Mac跑AI,终于不用纠结了。
初创公司Osaurus发布了一款Mac应用,能让你在同一界面里自由切换本地AI模型和云端模型——你的文件、数据、工具全留在自己硬件上。
这解决了什么问题?
AI模型越来越多,能力各有强弱。你可能想让ChatGPT写文案,让克劳德做代码审查,让DeepSeek处理中文,但每换一次就得跳转不同网站、复制粘贴内容。麻烦。
Osaurus做的事,就是把这些模型整合到一个控制台里。你可以在本地跑Llama、DeepSeek V4、Gemma 4这些开源模型,也可以接OpenAI、Anthropic、谷歌GEMINI等云端服务。界面是给你普通用户准备的,不是给开发者写的终端命令行。
联合创始人Terence Pae之前在特斯拉和Netflix当工程师。他最初做了个桌面AI助手叫Dinoki,用户反馈说:买你的软件还得另付AI调用费,不划算。这促使他研究本地运行。
"去年这时候,本地AI连完整句子都写不利索。现在它能跑工具、写代码、控制浏览器、在亚马逊下单——进步太快了。"Pae在接受TechCrunch采访时说。
当然,本地跑AI有门槛。你的Mac需要至少64GB内存,跑大模型比如DeepSeek v4,建议128GB。硬件要求不低,但 Osaurus团队认为这只是暂时的。
"本地AI能效每年都在大幅提升。去年还是玩具,今年能干活了。"
目前Osaurus支持20多种插件,涵盖邮件、日历、浏览器、文件、音乐、代码等。最新版本还加了语音功能。项目上线不到一年,下载量已突破11万次。
竞争选手有Ollama、Msty、LM Studio这些,但Osaurus定位更偏普通用户——有界面、安全沙盒隔离、不用碰命令行。
安全方面,Osaurus在硬件隔离的虚拟沙盒里运行AI,限制AI只能访问特定范围,防止你的电脑和数据被污染。跟那些要求你给满权限的终端工具比,这算是给普通用户多一层保护。
团队正在考虑拓展企业市场,比如法律、医疗这些对数据隐私要求高的行业。毕竟,把AI跑在自己服务器上,不用担心内容被云端记录,对某些场景确实有吸引力。
下一步会支持企业版。如果你用的是Mac,而且对本地AI感兴趣,可以去官网 osaurus.ai 下载试试。