摘要:
這一章我們來嘮嘮大模型和DB數(shù)據(jù)庫之間的交互方案,除了基于Spider數(shù)據(jù)集的SOTA方案DIN之外,還會介紹兩個改良方案C3和SQL-Palm,以及更貼合實際應(yīng)用的大規(guī)模復(fù)雜SQL數(shù)據(jù)集BIRD。 閱讀全文
這一章我們來嘮嘮大模型和DB數(shù)據(jù)庫之間的交互方案,除了基于Spider數(shù)據(jù)集的SOTA方案DIN之外,還會介紹兩個改良方案C3和SQL-Palm,以及更貼合實際應(yīng)用的大規(guī)模復(fù)雜SQL數(shù)據(jù)集BIRD。 閱讀全文
posted @ 2023-09-16 09:01
風(fēng)雨中的小七
閱讀(1987)
評論(0)
推薦(2)

本章介紹如何和搜索引擎進(jìn)行交互的LLM Agent設(shè)計,主要包含以下幾個模塊:搜索改寫,事實抽取,聚合推理,行為交互。我們會以WebCPM為基礎(chǔ),同時介紹WebGPT,WebGLM的異同
本章介紹基于模型微調(diào),支持任意多工具組合調(diào)用,復(fù)雜工具調(diào)用的方案。工具調(diào)用的核心是3個問題:在哪個位置使用工具,使用什么工具,如何生成調(diào)用語句 - Gorilla & Toolformer
這一章我們正式進(jìn)入大模型應(yīng)用,聊聊如何把思維鏈和工具使用結(jié)合得到人工智能代理。先介紹基于Prompt的零微調(diào)方案Self Ask和React,我們會結(jié)合langchain寫個簡單的Agent來玩一玩
現(xiàn)實場景中考慮成本和推理延時,大家還是希望能用6B的模型就不用100B的大模型。但在前兩章反復(fù)提到小模型不具備思維鏈推理能力,那這個能力有可能通過后天訓(xùn)練來獲得么?如何讓小模型具備COT能力呢?
這一章我們追本溯源,討論下COT的哪些元素是提升模型表現(xiàn)的核心。結(jié)合兩篇論文的實驗結(jié)論,可能導(dǎo)致思維鏈比常規(guī)推理擁有更高準(zhǔn)確率的因素有:思維鏈的推理過程會重復(fù)問題中的核心實體;正確邏輯推理順序的引入
這一篇真的是解密prompt!我們會討論下思維鏈(chain-of-Thought)提示詞究竟要如何寫,如何寫的更高級,介紹包括few-shot,zero-shot,循序漸進(jìn)式和一致性COT的寫法
這一章我們聊聊有哪些方案可以不用微調(diào)直接讓大模型支持超長文本輸入,分別介紹顯式搜索,unlimiformer隱式搜索,并行輸入的PCW,和并行解碼的NBCE方案
RLHF是針對有用,無害,事實性等原則,把模型輸出和人類偏好進(jìn)行對齊的一種方案。以O(shè)penAI為基礎(chǔ),本章會對比DeepMind, Anthropic在RLHF步驟中的異同,試圖理解RLHF究竟做了啥
上一章介紹了如何基于APE+SELF自動化構(gòu)建指令微調(diào)樣本。這一章咱就把微調(diào)跑起來,主要介紹以Lora為首的低參數(shù)微調(diào)原理,環(huán)境配置,微調(diào)代碼,以及大模型訓(xùn)練中顯存和耗時優(yōu)化的相關(guān)技術(shù)細(xì)節(jié)
浙公網(wǎng)安備 33010602011771號