用 FlowyAIPC 重新定义你的工作方式

作者: admin 分类: 评论分析 发布时间: 2025-12-23 16:02

不知道大家有没有发现一个问题,很多大厂都在做端侧的AI助手。

比如PC端,或者移动端的,像豆包AI手机也属于移动端的系统级AI助手。

PC端的就有豆包、元宝、千问等等,表面上看是一个浏览器软件。

实际上拥有各种与系统交互的功能,这些都可以称之为端侧的AI助手。

今天要给大家介绍的FlowyAI也是一款PC端的AI助手,只是更侧重于工作辅助。

通过集成先进AI技术的端侧桌面助手,主动提醒你完成工作任务、提升效率。

目前已经上线的只有Windows版本,在FlowyAIPC的官网:https://flowyaipc.cn,或者微软应用商店下载安装即可,如图:

下面跟着老马的操作一起来认识一下这款AI助手,到底有哪些功能对我们的工作起到提升效率的作用。

FlowyAI核心功能

下载安装完软件,运行后默认需要微信扫码登录,登录后提示是否下载本地模型,为了体验更流畅一点,推荐大家下载,如图:

一个是ASR语音识别模型,这个对于会议录音文件转成文字纪要有用。

Embedding向量模型,搭建知识库的时候会用到,把文本数据转换为向量数据进行存储。

第三个MiniCPM-V是一个多模态理解模型,有助于理解我们上传的图片和文本内容。

最后一个是Ollama模型框架,有了Ollama,我们就能在上面部署更多的模型,进行本地的推理应用。

模型下载速度还是挺快的,下载完毕后不用管,软件会自动安装或者丢到对应的模型目录。从整个主界面来看,就是一个AI助手对话框,如图:

右侧有今日天气跟今日代办,右上角有个隐私模式,开启该模式之后,你的数据全部保留在本地,不会上传给大模型,如图:

日常使用中,你想找最近的会议纪要,或者从知识库中找产品、公司的相关资料,又或者是调用智能体去干活,通通都在对话框里面输入要求实现。

至于上传图片和文档,让其分析总结都是太简单不过的操作,前提是得先下载好对应的本地模型。

下面继续看看会议纪要、笔记、知识库和智能体,功能虽然不多,但基本都是常用的。

会议纪要、笔记、知识库、智能体

新建会议纪要可以直接进行录音,线上会议的话就直接录制腾讯会议、钉钉会议这些软件的音频输出即可,线下会议需要用到麦克风。

一边录音的同时,刚才下载的ASR语音识别模型,就会一边把录音转成文字,结束录音之后,再一键生成会议纪要,如图:

笔记的话比较好理解,你可以上传自己的工作日周报文档作为笔记,或者新建笔记,将其当做一个记事本直接输入内容保存。

以前写工作笔记,无论是拿纸质笔记本手写记录,还是在电脑上打字保存成文档,下次你想找回当初记录的某个细节点,是一件挺麻烦的事情。

现在有了AI助手,你只需在对话框里面输入,帮我查一下xxx笔记记录,里面有个数据是多少来着,嗖一下结果就出来了。

同样的,知识库也是这样的作用,初始空间有30G,跟腾讯的ima类似,工作上的所有电子文档都可以存储进去,甚至创建不同业务端的知识库,如图:

智能体内置了非常多跟工作相关的,自己也可以单独创建智能体,创建的方式还是输入系统提示词那种主流的方式,如图:

这些其实没什么好讲的,市面上只要是个AI助手都有智能体功能,现成的拿过来就能用,没有的自己再简单创建一个。

至于智能体的系统提示词不会写的小伙伴,可以回看老马之前介绍的工具,使用工具来直接生成,详情查阅老文章:老马AI免费工具网站上线。

模型商店

说好本地跑模型,保护隐私和数据安全,那模型商店就得好好说道说道。软件提供的模型不多,都是开源模型,如图:

能够下载部署的模型,也就是你电脑硬件资源支持跑得动的模型,按钮是蓝色的,不支持的按钮是灰色的。

正常我们下载Deepseek或者Qwen的模型即可,像DeepSeek-R1-0528-Qwen3-8B、Qwen3:14B、DeepSeek-R1:14B、DeepSeek-R1:32B都是比较推荐的模型。

当然,能跑得起来,不代表回复和输出的速度快,还是跟电脑硬件资源强弱有关系,这点大家别拿线上部署好的AI助手对比,也别追求什么满血。

本地模型主打一个够用就行,FlowyAI还提供NPU系列模型,由Windows专属的本地AI加速引擎支持,无需联网即可高速运行,更隐私,更高效。

只是NPU系列模型分类目前还没开放下载部署,看看后续更新的版本会不会放出来。

老马这里就下载部署一个DeepSeek-R1-0528-Qwen3-8B,模型文件大小5G,千兆宽带的话两三分钟下载完。

对了,安装后的模型以后不需要了,是可以卸载掉的,这样避免占用太多硬盘空间,如图:

安装了大语言模型之后,记得要在左侧的模型菜单里面,切换到你刚才安装的模型,不然默认使用的是上面第一次下载安装的MiniCPM-V模型。

没切换的话,你去跟AI助手对话,发现输出的回复都是乱码,切换后稍微等一下模型加载完成,如图:

推理速度怎么说呢,如果本地电脑没有独立显卡,只使用CPU和集成显卡,那肯定是慢一些的,需要等待,有独立显卡会好一些,如图:

总结一下,FlowyAIPC算得上是一款简洁实用的工作型本地AI助手,适合垂直工作且注重隐私数据安全的场景。

虽然目前还没上NPU模型,不然在Windows系统,或者一些自带AI加持的英特尔CPU环境下使用,速度和体验会更快更好。

还是期待软件继续更新迭代,像我们的办公电脑同样是朝着AI电脑趋势去发展的,本地AI助手大有可为,所以感兴趣的小伙伴速度用起来。

好了,以上就是今天的分享,欢迎关注、点赞、转发一键三连。有任何需求和问题,请在评论区留言,回见!

如果觉得我的文章对您有用,请随意赞赏。您的支持将鼓励我继续创作!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Protected by WP Anti Spam