8 万象春和 11小时前 115次点击
Edge Galler是谷歌的一个本地AI工具,
虽然说体验干不过微龙,豆包之类的AI,
但人家离线能跑啊。
当然,它最大的优点是比之前的那些本地AI占用内存小。
很早之前用过本地工具的肯定都知道,它的占用存储是很大的,动不动十几个G,还不怎么聪明。
用过的可以帮我证明一下哈。
那么下面详细介绍下这个好玩的。(我不是什么懂哥,我不懂数据,所以就之谈一些基础的东西,喷子和装高手的兄弟请右转谢谢。)
要简洁选什么,
谷歌Edge Gallery。
模型多选什么,
谷歌Edge Gallery。
能离线,选什么,
我们选谷歌Edge Gallery。
咳咳,以上均为个人抽风。
为了更直观的让大家看到这个东西,我附上一些截图和模型名称和占用大小。
Gemma3-1B-IT Downloaded 584.4 MB Learn more and see model license Expand
Gemma-3n-E4B-it Downloaded 4.9 GB Learn more and see model license Expand
Best overall Gemma-4-E2B-it Downloaded 2.5 GB Learn more and see model license Collapse A variant of Gemma 4 E2B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.
等
Best overall Gemma-4-E2B-it Downloaded 2.5 GB Learn more and see model license Collapse A variant of Gemma 4 E2B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.
Gemma-4-E4B-it Downloaded 3.6 GB Learn more and see model license Collapse A variant of Gemma 4 E4B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.
等
Best overall Gemma-4-E2B-it Downloaded 2.5 GB Learn more and see model license Collapse A variant of Gemma 4 E2B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.
Gemma-4-E4B-it Downloaded 3.6 GB Learn more and see model license Collapse A variant of Gemma 4 E4B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.
Gemma-3n-E2B-it Downloaded 3.7 GB Learn more and see model license Expand
Gemma-3n-E4B-it Downloaded 4.9 GB Learn more and see model license Expand
等
可以看到这边模型最大的占用也没有过5G,最小的甚至连1G都没到。
那些较大的模型也是包含图片解析的才会占用五个G存储。
运行要求好像也不怎么高,我的note11t pro也可以跑起来,
额,只是在他思考的时候我会有点卡。
最后还有一个不怎么实用的功能,因为它不实用,我就不截图展示了,,真的有点鸡肋了,
你可以和他说
帮你打开手电筒,网络设置,相机等它的内置操作。
很多高级操作都没办法执行,因为他没给你内置进去。
当然,如果你有实力写插件的话好像也不是不行。
你可以把它当一个高级的按键精灵使用了。
在那个页面,你可以导入自己的配置插件,让他执行你导入的插件。
但说实话,你都用上AI了还自己写,是不是有点掉价了嘻嘻。
在对话方面,
我和它对话的时候感觉有点像之前爆火的ChatGPT,他或许不是ChatGPT,但是他对话的回复方式,总结方式都给我一种在使用ChatGPT的感觉。
当然,有的用我就不挑了,总比和之前占用内存大,有智力障碍的ai交流好啊。
好了,咱们也不多废话了,
上
链
接
https://www.123684.com/s/REMhvd-yFkV?pwd=9420#
点击下载没有123云盘的可以考虑加群下载
874559340
点击跳转好了,
兄弟们,
今天的分享就到这里,
有八G运存的已经可以考虑试试了,
欢迎分享使用体验哈,
咱们下次见。
华为的鸿蒙2的系统不知道能不能跑
没有谷歌服务
给他问了个问题,然后用了八分多钟才回答出来。
是第一个模型,也就是说,拥有七个能力那个。
是的,我就是用它生成的结果,8.8分钟。