兄弟们,想在本地跑AI的看过来,Edge Gallery 满足你一点小需求,转自公众号,画雨文印社

8 万象春和 11小时前 115次点击

Edge Galler是谷歌的一个本地AI工具,

虽然说体验干不过微龙,豆包之类的AI,

但人家离线能跑啊。

当然,它最大的优点是比之前的那些本地AI占用内存小。

很早之前用过本地工具的肯定都知道,它的占用存储是很大的,动不动十几个G,还不怎么聪明。

用过的可以帮我证明一下哈。

那么下面详细介绍下这个好玩的。(我不是什么懂哥,我不懂数据,所以就之谈一些基础的东西,喷子和装高手的兄弟请右转谢谢。)

要简洁选什么,

谷歌Edge Gallery。

模型多选什么,

谷歌Edge Gallery。

能离线,选什么,

我们选谷歌Edge Gallery。

咳咳,以上均为个人抽风。

为了更直观的让大家看到这个东西,我附上一些截图和模型名称和占用大小。

聊天工具截图 图片

Gemma3-1B-IT Downloaded 584.4 MB Learn more and see model license Expand

Gemma-3n-E4B-it Downloaded 4.9 GB Learn more and see model license Expand

Best overall Gemma-4-E2B-it Downloaded 2.5 GB Learn more and see model license Collapse A variant of Gemma 4 E2B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.

协作页面截图 图片

Best overall Gemma-4-E2B-it Downloaded 2.5 GB Learn more and see model license Collapse A variant of Gemma 4 E2B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.

Gemma-4-E4B-it Downloaded 3.6 GB Learn more and see model license Collapse A variant of Gemma 4 E4B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.

识图页面截图 图片

Best overall Gemma-4-E2B-it Downloaded 2.5 GB Learn more and see model license Collapse A variant of Gemma 4 E2B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.

Gemma-4-E4B-it Downloaded 3.6 GB Learn more and see model license Collapse A variant of Gemma 4 E4B ready for deployment on Android using LiteRT-LM. It supports multi-modality input, with up to 32K context length.

Gemma-3n-E2B-it Downloaded 3.7 GB Learn more and see model license Expand

Gemma-3n-E4B-it Downloaded 4.9 GB Learn more and see model license Expand

可以看到这边模型最大的占用也没有过5G,最小的甚至连1G都没到。

那些较大的模型也是包含图片解析的才会占用五个G存储。

运行要求好像也不怎么高,我的note11t pro也可以跑起来,

额,只是在他思考的时候我会有点卡。

最后还有一个不怎么实用的功能,因为它不实用,我就不截图展示了,,真的有点鸡肋了,

你可以和他说

帮你打开手电筒,网络设置,相机等它的内置操作。

很多高级操作都没办法执行,因为他没给你内置进去。

当然,如果你有实力写插件的话好像也不是不行。

你可以把它当一个高级的按键精灵使用了。

在那个页面,你可以导入自己的配置插件,让他执行你导入的插件。

但说实话,你都用上AI了还自己写,是不是有点掉价了嘻嘻。

在对话方面,

我和它对话的时候感觉有点像之前爆火的ChatGPT,他或许不是ChatGPT,但是他对话的回复方式,总结方式都给我一种在使用ChatGPT的感觉。

当然,有的用我就不挑了,总比和之前占用内存大,有智力障碍的ai交流好啊。

好了,咱们也不多废话了,

https://www.123684.com/s/REMhvd-yFkV?pwd=9420#

点击下载

没有123云盘的可以考虑加群下载

874559340

点击跳转

好了,

兄弟们,

今天的分享就到这里,

有八G运存的已经可以考虑试试了,

欢迎分享使用体验哈,

咱们下次见。

共 15 条评论
0 
老登
万象春和 [楼主] 11小时前
0 
块去试试能不能跑
0 
好,等会我去试试。我估计我这个不太行
用户592898 11小时前
0 

华为的鸿蒙2的系统不知道能不能跑

用户592898 10小时前
0 

没有谷歌服务

万象春和 [楼主] 10小时前
0 
这个你可以自己测一下,因为我这边只有粮食手机
问水清寒 10小时前
0 
这个手机上没有Google服务框架,可以跑得起来吗
我手机还是太烂了,百分百带不动这玩意的 本楼来自:我的世界肝帝玩家的资源库,可以进来看看
行色匆匆 9小时前
0 

给他问了个问题,然后用了八分多钟才回答出来。

自然而然 8小时前
0 
我也问了个问题,回答的速度是AI正常的回答速度?没有这么慢呀。
行色匆匆 6小时前
0 

是第一个模型,也就是说,拥有七个能力那个。

万象春和 [楼主] 5小时前
0 
那个是聊天大模型
行色匆匆 5小时前
0 

是的,我就是用它生成的结果,8.8分钟。

万象春和 [楼主] 5小时前
0 
额这,我手机十来秒就生成完了。最长的一次回复是63s,让他写了一个小游戏
自然而然 8小时前
0 
多谢楼主。
添加一条新评论

登录后可以发表评论 去登录