切換語言為:簡體

GPT-4o 提取 HTML 資料:如何用最少...

若想向 GPT-4o 傳遞 HTML 資料,建議移除所有 HTML 標籤,僅傳遞純文字內容。這樣做成本更低,且對效能的影響微乎其微。我原本以為,文件結構在提取結構化資料時起著關鍵作用,並且我將觀察到成本與準確性之間“不可調和的矛盾”:...

「向量搜尋」技術讓推薦系統、生成式AI更懂你!

現在,你有沒有發現自己越來越多地依賴推薦系統,有時候自己搜到的結果好像還沒有AI推薦的精準。那估計有人好奇了,推薦系統怎麼這麼“聰明”的呢?答案就是:“向量搜尋”。今天,我們來聊聊這個技術,看看它是怎麼改變了我們獲取資訊的方式的。1、...

github 上這個專案火的有點必然,AI 科學家的時代來了

github 上這個專案火的有點必然,AI 科...

人類對於科學探索的速度和深度有著前所未有的需求。隨著技術的進步,尤其是人工智慧(AI)的迅猛發展,人們開始好奇:AI能否成為科學發現領域的新興力量?這正是“AI科學家”這一概念背後的核心問題。也是今天要說的這個專案他帶給咱們的價值,目...

生成語言模型(GLMs)和大型語言模型(LLMs)

生成語言模型(GLMs)和大型語言模型(LLMs)

在本章中,您將學習生成語言模型(GLMs)和大型語言模型(LLMs)。接下來,您將學習如何在自己的文字上預訓練任何語言模型,例如生成預訓練變換器2(GPT-2),並將其用於自然語言生成(NLG)等任務。您將瞭解文字到文字轉換器(T5)...

微調語言模型用於文字分類,精通Transformer

微調語言模型用於文字分類,精通Transformer

在本章中,我們將學習如何配置一個預訓練模型以進行文字分類,並如何微調它以適應任何文字分類的下游任務,例如情感分析、多類分類或多標籤分類。我們還將討論如何處理句子對和迴歸問題,並提供一個實現示例。我們將使用如 GLUE 等知名資料集以及...

RLHF不夠用了,OpenAI設計出了新的獎勵機制

RLHF不夠用了,OpenAI設計出了新的獎勵機制

OpenAI 的新獎勵機制,讓大模型更聽話了。自大模型興起以來,使用強化學習從人類反饋(RLHF)中微調語言模型一直是確保 AI 準確遵循指令的首選方法。爲了確保 AI 系統安全執行並與人類價值觀保持一致,我們需要定義期望行為並收集人...

透過 Vue 實現一個簡易 ChatGPT

透過 Vue 實現一個簡易 ChatGPT

前言最近半年的時間內,大模型圈內不斷涌現像GPT-4-1106-preview,GPT-4-Turbo,GPT-4o...等超強大的LLM,並不斷迭代,現在的大模型已經不僅僅能夠與使用者進行文字互動,還能夠文生成圖,透過描述生成影片,...

利用大語言模型(LLM)探索文字分類

在快速發展的自然語言處理 (NLP) 領域,大型語言模型 (LLM) 正在開闢新天地,為古老的文字分類難題提供創新方法。這項任務涉及為文字分配預定義類別,是從情緒分析和垃圾郵件檢測到內容分類等各種應用的基礎。隨著 LLM 成為焦點,它...

文字生成影象工具 Midjourney 的 iw、sref 和 cref 引數理解

文字生成影象工具 Midjourney 的 i...

在Midjourney這個強大的文字到影象生成工具中,iw、sref和cref都是非常重要的引數,很多mj繪畫新手都搞不清。希望透過下面這篇分享,可以幫大家理清這三者之間的區別。首先,Midjourney使用者可以將一張圖片作為墊圖(...

面向AI應用開發實戰分享 - 基礎篇

面向AI應用開發實戰分享 - 基礎篇

引言如果你是一名前端開發,同時又對AI開發很感興趣,那麼恭喜你,機會來了。如果不是也沒關係,同樣能幫大家瞭解AI應用的開發思路。本文將帶大家從面向AI開發的基礎知識開始,再到RAG,Agent,流程編排,深入瞭解如何在企業內部落地AI...

使用多級 tools 解決大模型中呼叫大規模 ...

前文在業務中如果使用大模型的 tools 方式來解決問題,肯定會遇到一個問題,就是 tools 的數量太多了,tools 本身的描述加上引數的描述整個 token 的數量會超出大模型的輸入 token 限制,這種情況需要我們想辦法去解...