标签 大模型 下的文章
- Prompt Engineering的本质是用自然语言,激活AI大模型的相关内部参数,并促成这些不同层次参数组合,对输出内容进行分析处理,并生成符合预期的内容 May 12
- Github Model这几天真是大量上新,除了OpenAI刚出的几个大模型,Cohere的Command-A、Meta的Llama4、Deepseek-v3的最新版也纷纷上线。其中GPT-4.1-mini被我置顶了,和Gemini-2.0-flash一起作为主力模型交叉用起来。 Apr 17
- AI写作测试++ Apr 07
- 估计未来新发布的模型,都应该带这几个必备标签了,专家模型,深度思考,多模态,支持agent,MCP Mar 23
- 国内AI大模型三强:第一是阿里的Qwen系列,强在产品;第二是deepseek系列,强在工程;第三众所周知有好几家,就不列举了,反正都能用——李开复说是豆包,个人持保留态度。除了前两家拿到船票的,其它的就再卷一两年看吧,反正最后能活下来的预计只有个位数,其它只能转应用。 Mar 21
- 测试了一个“如审查”版本的大模型,很有意思:它也做内容审查,但不是直接做内容删除或者禁止输出,而且输出后把违规内容删除;而且删除也不是彻底删除,而是在删除的内容上加删除线…… 不影响使用,还能看到大模型的审查标准和过程 Mar 21
- 向google的gemini询问“亚里士多德伪造说”的科学分析,gemini带着非常明确的预设,坚绝基于“这是谎言”的前提讨论问题。连着问了4轮,请它从中立角度、基于科学分析来讨论这个问题,gemini仍然拒绝进行客观分析,坚持基于“亚里士多德是真实的”、“这种说法缺乏依据”来讨论问题…… Mar 16
- 什么是大模型蒸馏,它的具体实现步骤怎么样 Jan 31
- 知识蒸馏是用一个模型的输出用做另一个模型的预训练输入。这样训练速度快,但数据里的噪音没有了,模型适应能力下降。但可以通过精调, fine tunning,对冲 Jan 30
- deepseek在训练集范围内的对话又强又快,但一旦超出这个范围,没有现成的解题集合参考,效能掉得也很厉害。适合主流应用,工程上很不错的策略。 Jan 28
- 把自己默认使用的AI大模型,从openai的gpt-4o,改成了cohere的command-r。它的多语言能力和rag能力为办公应用特别优化过,训练数据集也更新,除了不支持多模态,其它都比gpt更适合工作用途。配合cherry新推出的知识库功能,个人办公用途的AI应用目前最佳实践。 Dec 28
- 揭秘AI巨头背后的力量:深入浅出理解大语言模型(LLM)的原理 Nov 20
- 等不及AI软件的api模块升级,自己手动把调用Github Model上的大模型升级到了最新版,包括Llama3.2系列和Command-R系列,确保体验最新最智能的大模型。同时把个人精选的办公场景下的AI资源做了汇总,在个人网站上做了个专门的分享页面[AI资源](https://note.vim.org.cn/ai.htm),有需要的可以访问自取。 Nov 20
- 测试了几家AI大模型的中文翻译效果,体验下来:Qwen2.5最佳,llama3.1最拉。在本地用LMstudio跑了几家的大模型的小参数版本,想用于本地长文本翻译。测试对像包括:cohere的aya(8b),阿里的qwen2.4(7b),meta的llama3.1(8b),mistral(7b),t微软的phi3.5(mini)、google的gemma2(9b) Nov 10
- Cherry Studio又升了个级,增加了LeChat和xAI的API接入,这两家的API目前都免费。同时增加了DuckDuckGO的AIchat入口,这个是Duck新推出的对话平台,可以免费使用GPT、Claude、Llama、Mistral几家的大模型,无需注册,主打隐私,速度飞快。好评plus Nov 08
- 文献分析,AI选型。高强度的用AI处理了上百篇的论文和报告,主要从四个维度处理:长文本处理、内容逻辑分析、自然语言理解、业务需求理解。得出大致体验:Claude最佳、Kimi体验不错(RAG算是优势了)、Gemini还行。——比较遗憾的是万知和智谱,虽然也能用,但确实比预期差一些。 Jul 09
- AI大模型微调++ Jun 21
- 大模型评测++ Jun 21
- 专家模型++ Jun 21
- 大数据模型,顾名思义,是需要大数据的。如果说数据量不够的话,这些模型会直接“记住”已有的数据,得到的结论是无法generalize的。而大家都知道,社会科学很多时候能够搞到的数据就是几百份调查问卷。即使想做的更多,精力财力也都跟不上。这些数据量真心是不够神经网络塞牙缝的。所以,请社会科学的同学们不要过度地迷信大数据模型。++ May 28