当前位置:CRM > LLM

一文解析如何基于 LangChain 构建 LLM 应用程序

2024-03-07 12:01:44
一文解析如何基于 LangChain 构建 LLM 应用程序
LangChain 作为一个围绕 LLM 构建的框架,为自然语言处理方面开辟了一个充满可能性的新世界,可以创建各种应用程序,并能够有效解决文本生成、情感分析以及语言翻译等难题,极大地释放了 LLM 的潜力。...

可视化FAISS矢量空间并调整RAG参数提高结果精度

2024-03-01 18:02:27
可视化FAISS矢量空间并调整RAG参数提高结果精度
随着开源大型语言模型的性能不断提高,编写和分析代码、推荐、文本摘要和问答(QA)对的性能都有了很大的提高。但是当涉及到QA时,LLM通常会在未训练数据的相关的问题上有所欠缺,很多内部文件都保存在公司内部,以确保合规性、商业秘密或隐私。...

数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好

2024-02-29 00:00:31
数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好
来自腾讯的研究者发现:只需通过一种简单的采样投票法,大语言模型的性能就会随着实例化 agent 的数量的增大而增强,呈现scaling property(可拓展性),无需复杂的多 LLM agents 协作框架以及prompt工程方法的加持。此外,该方法与现有的复杂方法正交,结合之后,可进一步增强...

GenAI步步紧逼,数据治理如何进化?

2024-02-28 18:03:45
GenAI步步紧逼,数据治理如何进化?
对于许多尝试GenAI或使用大型语言模型(LLM)构建应用程序的组织来说,数据治理责任更大,员工使用人工智能工具的风险更大,非结构化数据的范围也更广。我咨询了几位专家,了解数据治理必须如何发展,以应对生成人工智能工具和能力所固有的机遇和风险。...

高性能 LLM 推理框架的设计与实现

2024-02-26 12:02:31
高性能 LLM 推理框架的设计与实现
本文将分享大语言模型推理相关工作,以及大语言模型性能优化的一些关键点。在大语言模型推理中常会用到四个指标:Throughput(吞吐量)、First Token Latency(首字延迟)、Latency(延迟)和QPS(每秒请求数)。...

一文搞懂使用 Arthur Bench 进行 LLM 评估

2024-02-04 18:00:46
一文搞懂使用 Arthur Bench 进行 LLM 评估
随着 LLM 的快速发展和改进,我们正在面对新的挑战和机遇。LLM 的能力和表现水平不断提高,这使得基于单词出现的评估方法可能无法完全捕捉到 LLM 生成文本的质量和语义准确性。...

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

2024-02-02 18:00:38
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导
来自UCLA的华人团队提出一种全新的LLM自我对弈系统,能够让LLM自我合成数据,自我微调提升性能,甚至超过了用GPT-4作为专家模型指导的效果。...

七个值得关注的优秀大语言模型(LLM)(常见语言模型)

2024-01-18 00:00:18
七个值得关注的优秀大语言模型(LLM)(常见语言模型)
在开源生态中涌现了许多优秀的LLM预练模型,这些模型有着各自的亮点。本文主要介绍目前为止(2024年1月)几个值得关注的大开源LLM。...

一文读懂 LLM 可观测性

2024-01-15 06:00:15
一文读懂 LLM 可观测性
本文将聚焦在针对 LLM 的可观测性进行解析,使得大家能够了解 LLM 的可观测性的必要性以及其核心的生态体系知识。...

LexisNexis 迎接生成式人工智能挑战

2024-01-12 12:00:44
LexisNexis 迎接生成式人工智能挑战
LexisNexis 也享受到了许多企业通过迁移到云端所获得的好处,包括显著的成本节约、可扩展性、灵活性和创新速度。但最大的好处可能是,LexisNexis 能够在自己的生成式人工智能应用中迅速采用机器学习和 LLM。...