现在我日常已经离不开使用 AI 了。
但是目前这些 AI 的使用都有一个问题,那就是需要联网,
一旦在没网或者网不好的情况下,AI就得歇菜。
好几次,我在飞机上脑子里想到了某个东西,但是具体是什么不清楚,都会想,要是没网的时候也能用 AI 大模型就好了。
大模型几乎学习了世界知识,
如果能把大模型离线部署到手机上,这样我就相当于把世界知识装进了口袋随身携带。
再也不用担心没网了。
说干就干,于是通过各种方法折腾,我在手机上安装了一个轻量的大模型,在网络不好的时候,作为我的替代品。使用一段时间下来,真的很不错。
在手机上使用大模型已经有一段时间后,我在群里分享了我的方法,群友表示非常想要一篇教程。
我很想写,但是当时能使用的方法太折腾了。
需要来来回回安装很多软件,需要特殊的网络,还需要会一点代码,同时,每次用起来也很不方便。
但是现在,站在开源的肩膀上,江树给大家带来
「口袋AI」,让大家不用写代码,不用特殊上网,不用看英文,不用换手机,不用更新系统,不用花钱,也能直接在手机离线使用大模型。
我在我3年前买的旧手机上测试了多款模型,运行流畅,毫无压力。
直接看视频:
那么这个应用去哪儿下载呢?
关注公众号,回复
「口袋AI」
获取下载链接。
如果你是 LangGPT 社区群友,安装包我已经发群里了,可以直接使用。
这应该是
国内目前手机离线部署大模型最简单的方法了。
其他方法江树已经帮大家尝试过了,很折腾,使用体验一言难尽。
Termux 安装法
就是在手机上安装 Termux,然后安装linux系统,再安装 Ollama,下载及运行大模型。
全程步骤很多,要输一大堆命令,而且全程都要在下面这个黑框里面操作,包括对话也是,很麻烦。
具体怎么安装我就不讲了,感兴趣的技术专家自己查看下面的文章
https://www.53ai.com/news/qianyanjishu/1795.html
APP 安装法
通过 APP 安装的方法也有,比如 Maid,可以直接安装使用。
Maid APP
但是 Maid 的问题是,需要特殊网络,
同时因为设计方案的问题,在手机上运行非常、非常的慢!不推荐!
maid
既然是方案的问题,优化方案是不是就可以了?