大家好!经过一段时间的体验,相信很多社区的小伙伴已经对UOS AI的新功能有所体验了。今天,我们就来聊聊这些功能如何在日常中使用,并解答大家提出的一些问题。
首先,来聊聊我们的【个人知识助手】。
你是否曾经有过这样的经历,为了一份之前保存的重要资料,翻遍了整个电脑却怎么也找不到?或者在急需某个信息的时候,却发现它淹没在海量的文件中,让你束手无策?现在,有了UOS AI的个人知识管理助手,这些问题都将迎刃而解。通过这个功能,你可以轻松地创建自己的个人知识库,借助 UOS AI 强大的AI检索功能,你只需要输入模糊的描述,【个人知识助手】就能迅速找到你需要的资料,并通过对资料的理解,直接生成你想要的答案,再也不用为找不到资料而烦恼了。它让你告别文件整理的烦恼,同时享受资料快速调取的便捷。
其次,再来说说我们的【Deepin玩机助手】。
对于Deepin用户来说,它简直就是贴心的随身小客服。有任何系统相关的问题,都可以问问她。无论是忘记快捷键,还是软件操作方法,都可以问她。有了她,你再也不用自己摸索如何使用Deepin系统,也不用浪费时间去网上搜索。Deepin玩机助手随时待命,为你解答对Deepin操作系统的问题,让你的Deepin使用体验更加顺畅无阻。
再者,让我们来看看【自定义模型】功能。
我们开放了模型接入接口,支持接入所有OpenAI接口格式的大模型,你可以根据自身需求,自行适配专属模型,让UOS AI成为个性化的智能伙伴。但值得注意的是,UOS AI的自定义模型接口规范为OpenAI的/v1/chat/completions。因此只有提供了OpenAI兼容接口的模型服务才通过【自定义】模型添加入口,添加到UOS AI中使用。具体配置方法,可以参考:[经验分享] UOS AI接入自定义模型 。
最后,我们再一起来看看大家关心的问题:
问题1、部分小伙伴反馈到:当前插件较多,要使用时还要单独下载,很不方便。
确实,现在插件多,要一个个下载确实有点麻烦。但这主要是因为这些AI模型都比较大,如果全部打包在应用里,会导致应用变得超级臃肿,下载和更新都会变得很慢。别担心,我们已经在考虑这个问题了,未来会有个专门的模型管理界面,大家可以在那里一站式下载所需的插件。而且,在需要用到某个模型的时候,UOS AI也会提醒大家去下载,这样就会方便很多啦!
问题2、要使用UOS AI 的个人知识库,推荐配置是什么?
想要畅享UOS AI的个人知识库,配置确实是关键。因为向量化模型对文件进行向量化操作时,需要大量的科学计算,如此大的运算量,就需要很强的硬件配置了。我们推荐你使用 Intel 11代 i7 或以上的强劲CPU,配上16GB的大容量内存。当然,如果你有10系以上的NVIDIA显卡,那就更完美啦!
问题3、UOS AI是否可以提供一些AI能力接口(比如文本朗读),供其他应用调用?
这是当然啦!UOS AI 可是很“大方”的,我们正在准备一大堆 AI能力接口,这些接口包括在线大模型接口、本地大模型接口,比如:语音转文本、文本转语音、OCR等。希望通过这些接口,让开发者伙伴们的工作变得更轻松,开发成本也能降一降,大家敬请期待吧。
非常感谢大家提供的宝贵建议,欢迎大家持续关注和使用UOS AI,大家在使用UOS AI的过程中,如果遇到任何问题,或者有脑洞大开的想法,都非常欢迎在评论区留言告诉我们,我们一起让UOS AI能力更强大,体验更顺畅。
7月16号-晚上7点,我们将在bilibili直播间为大家直播演示UOS AI的更多实操示范
也会在直播间中与大家来实时互动
直播间更有抽奖活动赢社区周边
欢迎大家扫码预约直播!
帅的,希望更多产品和研发同学能走到台前来和大家交流分享
尝试使用后,发现问题有:
arm版本的没更新吗?
Popular Ranking
Popular Events
大家好!经过一段时间的体验,相信很多社区的小伙伴已经对UOS AI的新功能有所体验了。今天,我们就来聊聊这些功能如何在日常中使用,并解答大家提出的一些问题。
首先,来聊聊我们的【个人知识助手】。
你是否曾经有过这样的经历,为了一份之前保存的重要资料,翻遍了整个电脑却怎么也找不到?或者在急需某个信息的时候,却发现它淹没在海量的文件中,让你束手无策?现在,有了UOS AI的个人知识管理助手,这些问题都将迎刃而解。通过这个功能,你可以轻松地创建自己的个人知识库,借助 UOS AI 强大的AI检索功能,你只需要输入模糊的描述,【个人知识助手】就能迅速找到你需要的资料,并通过对资料的理解,直接生成你想要的答案,再也不用为找不到资料而烦恼了。它让你告别文件整理的烦恼,同时享受资料快速调取的便捷。
其次,再来说说我们的【Deepin玩机助手】。
对于Deepin用户来说,它简直就是贴心的随身小客服。有任何系统相关的问题,都可以问问她。无论是忘记快捷键,还是软件操作方法,都可以问她。有了她,你再也不用自己摸索如何使用Deepin系统,也不用浪费时间去网上搜索。Deepin玩机助手随时待命,为你解答对Deepin操作系统的问题,让你的Deepin使用体验更加顺畅无阻。
再者,让我们来看看【自定义模型】功能。
我们开放了模型接入接口,支持接入所有OpenAI接口格式的大模型,你可以根据自身需求,自行适配专属模型,让UOS AI成为个性化的智能伙伴。但值得注意的是,UOS AI的自定义模型接口规范为OpenAI的/v1/chat/completions。因此只有提供了OpenAI兼容接口的模型服务才通过【自定义】模型添加入口,添加到UOS AI中使用。具体配置方法,可以参考:[经验分享] UOS AI接入自定义模型 。
最后,我们再一起来看看大家关心的问题:
问题1、部分小伙伴反馈到:当前插件较多,要使用时还要单独下载,很不方便。
确实,现在插件多,要一个个下载确实有点麻烦。但这主要是因为这些AI模型都比较大,如果全部打包在应用里,会导致应用变得超级臃肿,下载和更新都会变得很慢。别担心,我们已经在考虑这个问题了,未来会有个专门的模型管理界面,大家可以在那里一站式下载所需的插件。而且,在需要用到某个模型的时候,UOS AI也会提醒大家去下载,这样就会方便很多啦!
问题2、要使用UOS AI 的个人知识库,推荐配置是什么?
想要畅享UOS AI的个人知识库,配置确实是关键。因为向量化模型对文件进行向量化操作时,需要大量的科学计算,如此大的运算量,就需要很强的硬件配置了。我们推荐你使用 Intel 11代 i7 或以上的强劲CPU,配上16GB的大容量内存。当然,如果你有10系以上的NVIDIA显卡,那就更完美啦!
问题3、UOS AI是否可以提供一些AI能力接口(比如文本朗读),供其他应用调用?
这是当然啦!UOS AI 可是很“大方”的,我们正在准备一大堆 AI能力接口,这些接口包括在线大模型接口、本地大模型接口,比如:语音转文本、文本转语音、OCR等。希望通过这些接口,让开发者伙伴们的工作变得更轻松,开发成本也能降一降,大家敬请期待吧。
非常感谢大家提供的宝贵建议,欢迎大家持续关注和使用UOS AI,大家在使用UOS AI的过程中,如果遇到任何问题,或者有脑洞大开的想法,都非常欢迎在评论区留言告诉我们,我们一起让UOS AI能力更强大,体验更顺畅。