经测试,最适合个人和小团队的最佳AI前端是OpenWebUI,除了一般的对话功能外,还可以上传pdf等文档进行分析。后端可以接入本地的ollama或者远程的openai兼容api进行对话和多模态处理。而且,在这里上传的文档保留在你自己的服务器上,即使调用ChatGPT的api,也不会文件外传。当然,最保险的还是接入自己配置的本地大模型。

而且内置了RAG功能,可以订制自己的知识库,这个还没有详细测试,看UI功能预计不会太重,权限管理比较简单,小团队内部用应该够了。太复杂的场景可能主要选别的系统了。

没有openai账户也不用急,GitHub上有哥们的项目可以把kimi、智谱、通义、讯飞这些本地大模型的api转译为openai兼容api。经测试,有效。