编辑点评:在本地部署deepseek满血版。
ChatterUI中文版是一个手机本地部署AI的一个软件,通过此软件可以进行使用TTS语音朗读,导入本地部署AI文件,就可以在手机上使用deepseek模型满血版,支持多个模型满足用户使用需求,对手机性能要求也不是非常高,想在手机上离线使用AI的用户可以下载。
1、在本站下载ChatterUI;
2、在本站下载本地部署智能体模型;
3、下载完毕以后进入此软件,点击三条杠;
4、在这里点击models;
5、在这里导入本地的模型;
6、导入完毕就可以开始与AI进行对话了;
7、你询问他问题,不需要联网就可以顺利使用此软件。
TTS语音朗读对话:ChatterlUI配备先进的文本转语音(TTS)功能,能够将对话内容生动地朗读出来,为用户带来更加便捷、高效的交互体验。
美观排版与重点高亮:该应用界面设计简洁优雅,对话内容排版清晰、易读性强。此外,还支持对关键信息进行高亮显示,助力用户快速捕捉重点内容。
重新生成答案:ChatterlUI赋予用户高度的自主性,允许对不满意或不符合预期的答案进行重新生成,从而提供更精准、更贴合需求的回应。
对话内容可复制:用户可以轻松复制对话内容,方便后续引用、整理或分享,极大地提升了使用的灵活性和便捷性。
支持输出Markdown表格:ChatterlUI支持将对话内容以Markdown表格格式输出,满足用户在整理数据、撰写文档等场景下的多样化需求。
模型文件大小与手机RAM的关系
根据我个人的使用经验,对于bartowski老哥的q4质量模型,手机RAM大小与可流畅运行的模型文件大小之间存在一定的关系。具体而言,手机RAM大小除以2再减去1-2GB,即可得到可流畅运行的模型文件大小。
以8GB RAM手机为例,根据上述公式(8/2-1=3),可以轻松运行3GB大小的模型文件。
最后是3B模型的表现:
中文的是Qwen 2.5;英文的是Llama 3.2
Llama 3.2的中文不好,而且上面的问题也不能答对。但是呢,Llama 3.2也很多优点,比如理解复杂的提示词,英语知识库的质量也比较高,不管是健康知识还是其它知识,感觉都比较靠谱。
然后阿里巴巴的Qwen2.5已经推出数学专家模型,代码专家模型,1.5B的模型数学也很好,支持中英文混合输入,大家可以试试用手机离线做数学题
推荐使用模型:deepseek模型满血版,可通过特别说明里面的本地模型进行下载。
【如何使用ChatterUI?】
很简单,下载模型到手机以后,先要选择好系统预设(Llama选Llama,没有列出来的推荐选ChatML),然后才是导入模型,加载模型。完事!
1、TTS通常是手机自带的功能。如果没有,就需要安装Google TTS(安装好就自带en-US离线数据),中文语音离线数据需要自己安装TTS以后,在手机设置搜索“TTS”,然后去下载,普通网络就可以直接下载的(数据不到10M)
2、ChatterUI在后台时间久了,很容易被系统自动释放内存,所以就需要重新Load模型;也可以点“齿轮”,把自动load的选项打开。
3、import导入模型A以后,模型A就有两份,为了节约手机空间,可以考虑把原来的模型文件备份到U盘以后,再删除。
安装到手机(扫描下载)
PC |162MB
安卓 |17.94 MB
苹果 |77.08MB
安卓 |210 MB
安卓 |16.51 MB
安卓 |1.92 MB
安卓 |89.92MB
安卓 |251.63MB
安卓 |630.83KB