RM新时代网站-首页

                0
                • 聊天消息
                • 系統消息
                • 評論與回復
                登錄后你可以
                • 下載海量資料
                • 學(xué)習在線(xiàn)課程
                • 觀(guān)看技術(shù)視頻
                • 寫(xiě)文章/發(fā)帖/加入社區
                會(huì )員中心
                創(chuàng )作中心

                完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

                3天內不再提示

                大模型應用之路:從提示詞到通用人工智能(AGI)

                京東云 ? 來(lái)源:jf_75140285 ? 作者:jf_75140285 ? 2024-06-14 10:20 ? 次閱讀

                大模型在人工智能領(lǐng)域的應用正迅速擴展,從最初的提示詞(Prompt)工程到追求通用人工智能(AGI)的宏偉目標,這一旅程充滿(mǎn)了挑戰與創(chuàng )新。本文將探索大模型在實(shí)際應用中的進(jìn)展,以及它們如何為實(shí)現AGI鋪平道路。

                基于AI大模型的推理功能,結合了RAG(檢索增強生成)、智能體(Agent)、知識庫、向量數據庫、知識圖譜等先進(jìn)技術(shù),我們向實(shí)現真正的AGI(通用人工智能)邁出了重要步伐。

                為了方便大家理解,將AI大模型視作類(lèi)比人類(lèi)大腦的存在,我們與之交互,仿佛是在與一個(gè)能夠理解并使用人類(lèi)語(yǔ)言的智能體溝通。這樣的AI大模型能夠接收信息、生成回應,并且提供答案。然而,就像人類(lèi)也會(huì )犯錯一樣,AI大模型提供的答案也可能不完全準確。下面分別對提示詞工程,RAG,AI Agent, Fine-tuning,Function calling ,知識庫,知識圖譜等應用進(jìn)行詳細介紹。

                一、提示詞工程(Prompt Engineering)

                提示詞工程涉及設計和使用特定的提示詞或問(wèn)題構造來(lái)引導語(yǔ)言模型生成期望的輸出或執行特定的任務(wù)。提示詞就像是給AI的一把鑰匙,用來(lái)開(kāi)啟特定知識寶庫的大門(mén)。

                Prompt = 角色 + 任務(wù) + 要求 + 細節【步驟拆解、范例說(shuō)明,技巧點(diǎn)撥等】

                wKgZomZrqM6AVMZZAADa75cpBWs825.png

                ?

                提示詞看起來(lái)很簡(jiǎn)單,給出一句話(huà),大模型就會(huì )給出問(wèn)題響應,但要想大模型精準回復問(wèn)題,是自己想要的答案,還需要有結構化的提示詞知識。

                1.1 結構化Prompt

                結構化Prompt是一種預定義的輸入格式,它指導AI對話(huà)系統以特定的方式理解和響應用戶(hù)的查詢(xún)。與傳統的自由形式的Prompt相比,結構化Prompt通過(guò)提供清晰的指令和格式要求,幫助AI更準確地捕捉用戶(hù)的意圖。

                1.2 結構化Prompt的重要性

                1.提高理解力:結構化Prompt通過(guò)明確的指令幫助AI更好地理解用戶(hù)的查詢(xún)意圖。

                2.增強一致性:它們確保了對話(huà)的一致性,因為AI會(huì )以相同的方式處理類(lèi)似的查詢(xún)。

                3.提升效率:結構化的數據更容易被AI處理,從而提高了對話(huà)系統的整體效率。

                4.減少歧義:它們減少了用戶(hù)的輸入歧義,降低了AI誤解用戶(hù)意圖的可能性。

                1.3 如何設計結構化Prompt

                1.明確目標:在設計Prompt之前,明確你希望AI執行的任務(wù)或回答的問(wèn)題類(lèi)型。

                2.使用清晰的語(yǔ)法:確保Prompt使用簡(jiǎn)單、明確的語(yǔ)法,避免模糊或復雜的句子結構。

                3.包含關(guān)鍵信息:確保Prompt包含了完成任務(wù)所需的所有關(guān)鍵信息。

                4.測試和迭代:設計完成后,通過(guò)測試來(lái)驗證Prompt的有效性,并根據反饋進(jìn)行迭代。

                1.4 構建結構化Prompt的要素

                結構化Prompt涉及多個(gè)關(guān)鍵部分:

                1.角色定義(# Role):明確AI角色,增強特定領(lǐng)域的信息輸出。

                2.作者信息(## Profile):包括作者、版本和描述,增加信息的可信度。

                3.目標設定(## Goals):一句話(huà)明確Prompt的目的。

                4.限制條件(## Constrains):幫助AI“剪枝”,避免無(wú)效的信息分支。

                5.技能描述(## Skills):強化AI在特定領(lǐng)域的知識和能力。

                6.工作流程(## Workflow):指導AI如何交流和輸出信息。

                7.初始化對話(huà)(# Initialization):開(kāi)始時(shí)的對話(huà),重申關(guān)注的重點(diǎn)。

                ?

                二、RAG與知識庫

                RAG即Retrieval-Augmented Generation,是一種結合檢索和生成技術(shù)的模型。它通過(guò)引用外部知識庫的信息來(lái)生成答案或內容,具有較強的可解釋性和定制能力,適用于問(wèn)答系統、文檔生成、智能助手等多個(gè)自然語(yǔ)言處理任務(wù)中。RAG模型的優(yōu)勢在于通用性強、可實(shí)現即時(shí)的知識更新,以及通過(guò)端到端評估方法提供更高效和精準的信息服務(wù)。

                為什么要用 RAG,因為大模型(LLM)的知識存在固有缺陷:

                ?知識不新:由于訓練的時(shí)間和成本,大模型的知識往往是舊的,如 GPT-4 Turbo 的知識庫截至時(shí)間是 2023 年 4 月

                ?知識不全:缺少專(zhuān)業(yè)的領(lǐng)域知識或私有的業(yè)務(wù)知識

                2.1 RAG架構

                RAG的工作原理是通過(guò)檢索大規模文檔集合中的相關(guān)信息,然后利用這些信息來(lái)指導文本的生成,從而提高預測的質(zhì)量和準確性。

                ?

                wKgaomZrqM-AN1XeAAGWqrLlZEQ986.png

                ?

                RAG = LLM+知識庫

                具體而言,RAG通過(guò)三個(gè)關(guān)鍵部分實(shí)現工作:檢索、利用和生成。在檢索階段,系統會(huì )從文檔集合中檢索相關(guān)信息;在利用階段,系統會(huì )利用這些檢索到的信息來(lái)填充文本或回答問(wèn)題;最后在生成階段,系統會(huì )根據檢索到的知識來(lái)生成最終的文本內容。

                wKgaomZrqNKAKQ2pAAhuHXzB3j4556.png

                通過(guò)這一過(guò)程,RAG模型能夠在各種自然語(yǔ)言處理任務(wù)中發(fā)揮作用,如問(wèn)答系統、文檔生成和自動(dòng)摘要、智能助手和虛擬代理、信息檢索以及知識圖譜填充等。同時(shí),RAG模型具有及時(shí)更新、解釋性強、高度定制能力、安全隱私管理以及減少訓練成本等優(yōu)點(diǎn)。與微調相比,RAG是通用的,適用于多種任務(wù),并且能夠實(shí)現即時(shí)的知識更新而無(wú)需重新訓練模型。

                ?

                2.2 知識庫介紹

                對于企業(yè)而言,構建一個(gè)符合自身業(yè)務(wù)需求的知識庫是至關(guān)重要的。通過(guò)RAG、微調等技術(shù)手段,我們可以將通用的大模型轉變?yōu)閷μ囟ㄐ袠I(yè)有著(zhù)深度理解的“行業(yè)專(zhuān)家”,從而更好地服務(wù)于企業(yè)的具體業(yè)務(wù)需求。這樣的知識庫基本上適用于每個(gè)公司各行各業(yè),包括:市場(chǎng)調研知識庫、人力資源知識庫、項目管理知識庫、技術(shù)文檔知識庫、項目流程知識庫、招標投標知識庫等等。

                知識庫的技術(shù)架構分為兩部分:

                第一、離線(xiàn)的知識數據向量化

                ?加載:通過(guò)文檔加載器(Document Loaders)加載數據/知識庫。

                ?拆分:文本拆分器將大型文檔拆分為較小的塊。便于向量或和后續檢索。

                ?向量:對拆分的數據塊,進(jìn)行 Embedding 向量化處理。

                ?存儲:將向量化的數據塊存儲到向量數據庫 VectorDB 中,方便進(jìn)行搜索。

                wKgaomZrqNOAOWTHAAJf7cQL1-g660.png

                ?

                第二、在線(xiàn)的知識檢索返回

                ?檢索:根據用戶(hù)輸入,使用檢索器從存儲中檢索相關(guān)的 Chunk。

                ?生成:使用包含問(wèn)題和檢索到的知識提示詞,交給大語(yǔ)言模型生成答案。

                wKgZomZrqNSAUHfDAAHDrSQRX08899.png

                ?

                2.3 RAG應用場(chǎng)景

                1.問(wèn)答系統(QA Systems):RAG可以用于構建強大的問(wèn)答系統,能夠回答用戶(hù)提出的各種問(wèn)題。它能夠通過(guò)檢索大規模文檔集合來(lái)提供準確的答案,無(wú)需針對每個(gè)問(wèn)題進(jìn)行特定訓練。

                2.文檔生成和自動(dòng)摘要(Document Generation and Automatic Summarization):RAG可用于自動(dòng)生成文章段落、文檔或自動(dòng)摘要,基于檢索的知識來(lái)填充文本,使得生成的內容更具信息價(jià)值。

                3.智能助手和虛擬代理(Intelligent Assistants and Virtual Agents):RAG可以用于構建智能助手或虛擬代理,結合聊天記錄回答用戶(hù)的問(wèn)題、提供信息和執行任務(wù),無(wú)需進(jìn)行特定任務(wù)微調。

                4.信息檢索(Information Retrieval):RAG可以改進(jìn)信息檢索系統,使其更準確深刻。用戶(hù)可以提出更具體的查詢(xún),不再局限于關(guān)鍵詞匹配。

                5.知識圖譜填充(Knowledge Graph Population):RAG可以用于填充知識圖譜中的實(shí)體關(guān)系,通過(guò)檢索文檔來(lái)識別和添加新的知識點(diǎn)。

                三、智能體(AI Agent)

                在 AI 大模型時(shí)代,任何具備獨立思考能力并能與環(huán)境進(jìn)行交互的實(shí)體,都可以被抽象地描述為智能體(Agent)。這個(gè)英文詞匯在 AI 領(lǐng)域被普遍采納,用以指代那些能夠自主活動(dòng)的軟件或硬件實(shí)體。在國內,我們習慣將其譯為“智能體”,盡管過(guò)去也曾出現過(guò)“代理”、“代理者”或“智能主體”等譯法。智能體構建在大語(yǔ)言模型的推理能力基礎上,對大語(yǔ)言模型的 Planning 規劃的方案使用工具執行(Action) ,并對執行的過(guò)程進(jìn)行觀(guān)測(Observation),保證任務(wù)的落地執行。

                Agent一詞起源于拉丁語(yǔ)中的Agere,意思是“to do”。在LLM語(yǔ)境下,Agent可以理解為在某種能自主理解、規劃決策、執行復雜任務(wù)的智能體。

                AI Agent是由人工智能驅動(dòng)的程序,當給定目標時(shí),它們能夠自己創(chuàng )建任務(wù)、完成任務(wù)、創(chuàng )建新任務(wù)、重新確定任務(wù)列表的優(yōu)先級、完成新的頂級任務(wù),并循環(huán)直到達到目標。

                Agent = LLM+Planning+Tool use+Feedback
                
                Agent 是讓 LLM 具備目標實(shí)現的能力,并通過(guò)自我激勵循環(huán)來(lái)實(shí)現這個(gè)目標。

                ?

                3.1 PDCA思維模型

                PDCA思維模型大家應該都了解,我們可以把智能體執行過(guò)程比作PDCA思維模型,我們可以將完成一項任務(wù)進(jìn)行拆解,按照作出計劃、計劃實(shí)施、檢查實(shí)施效果,然后將成功的納入標準,不成功的留待下一循環(huán)去解決。目前,這是人們高效完成一項任務(wù)非常成功的經(jīng)驗總結。

                wKgaomZrqNaAW3-qAALfor5Isjw414.png

                3.2 智能體架構

                PDCA 循環(huán)是人日常做事思維模型,大模型是否可以像人一樣,讓大模型代替人的工作。因而,智能體應運而生,讓大模型具備執行能力。

                要讓LLM替代人去做事,我們可以基于PDCA模型進(jìn)行規劃、執行、評估和反思。

                wKgZomZrqNeAc2T2AAGZG-2MFOM105.png

                規劃能力(Plan):智能體(Agent)的大腦能夠將復雜的大任務(wù)細分為小的、可操作的子任務(wù),這種能力對于高效、有序地處理大型任務(wù)至關(guān)重要。

                執行能力(Do):智能體能學(xué)會(huì )在內部知識不足時(shí)調用外部API,例如獲取實(shí)時(shí)信息、執行代碼或訪(fǎng)問(wèn)專(zhuān)有知識庫。這需要構建一個(gè)平臺加工具的生態(tài)系統,鼓勵其他廠(chǎng)商提供更多工具組件,共同形成繁榮的生態(tài)系統。

                評估能力(Check):任務(wù)執行后,智能體需要判斷結果是否達到預期目標,并在出現異常時(shí)進(jìn)行分類(lèi)、定位和原因分析。這種能力通常不是通用大模型所具備的,需要針對特定場(chǎng)景進(jìn)行定制化的小模型訓練。

                反思能力(Action):基于評估結果,智能體能夠及時(shí)結束任務(wù)或進(jìn)行歸因分析,總結成功的關(guān)鍵因素。如果出現異?;蚪Y果不符合目標,智能體會(huì )提出應對策略,重新規劃并啟動(dòng)新的循環(huán)過(guò)程,這是整個(gè)任務(wù)管理流程的核心部分。

                ?

                下圖是智能體架構典型的架構,在很多智能化介紹文檔都有引用。

                ?

                wKgaomZrqNiAL8haAAFtN_jvzuQ016.png

                ?

                LLM作為一種智能代理,引發(fā)了人們對人工智能與人類(lèi)工作的關(guān)系和未來(lái)發(fā)展的思考。它讓我們思考人類(lèi)如何與智能代理合作,從而實(shí)現更高效的工作方式。而這種合作方式也讓我們反思人類(lèi)自身的價(jià)值和特長(cháng)所在。

                ?

                3.3 智能體開(kāi)發(fā)框架

                智能體是當前大模型最火熱的話(huà)題,如何快速開(kāi)發(fā)智能體,智能體開(kāi)發(fā)框架少不了。當下主流的智能體開(kāi)發(fā)框架有Langchain,metaGPT。

                1、Langchain

                LangChain是一個(gè)用于開(kāi)發(fā)由語(yǔ)言模型支持的應用程序的框架。它使應用程序能夠:

                ?感知上下文:將語(yǔ)言模型連接到上下文源(提示說(shuō)明、小樣本示例、響應的內容等)

                ?推理:依靠語(yǔ)言模型進(jìn)行推理(關(guān)于如何根據提供的上下文進(jìn)行回答、采取什么操作等)

                wKgZomZrqNmAQrMPAASfLPeZF9Q562.png

                ?

                LangChain框架有以下幾個(gè)核心組成部分:

                ?LangChain庫:PythonJavaScript庫。包含無(wú)數組件的接口和集成、將這些組件組合成鏈和Agent的基本運行時(shí),以及鏈和Agent的現成實(shí)現。

                ?LangChain模板:一系列易于部署的參考架構,適用于各種任務(wù)。

                ?LangServe:用于將LangChain鏈部署為RESTAPI的庫。

                ?LangSmith:一個(gè)開(kāi)發(fā)者平臺,可讓您調試、測試、評估和監控基于任何LLM框架構建的鏈,并與LangChain無(wú)縫集成。

                ?

                2、MetaGPT

                MetaGPT是一個(gè)創(chuàng )新框架,將人類(lèi)工作流程作為元編程方法整合到基于LLM的多智能體協(xié)作中。它使用標準化操作程序(SOP)編碼為提示,要求模塊化輸出,以增強代理的領(lǐng)域專(zhuān)業(yè)知識并減少錯誤。實(shí)驗表明,MetaGPT在協(xié)作軟件工程基準上生成了更連貫和正確的解決方案,展示了將人類(lèi)知識整合進(jìn)多智能體系統的潛力,為解決復雜問(wèn)題提供了新機會(huì )。

                在MetaGPT看來(lái),可以將智能體想象成環(huán)境中的數字人,其中

                智能體 = 大語(yǔ)言模型(LLM) + 觀(guān)察 + 思考 + 行動(dòng) + 記憶

                wKgaomZrqNqAFEI2AAKnuAK2PVU874.png

                ?

                這個(gè)公式概括了智能體的功能本質(zhì)。為了理解每個(gè)組成部分,讓我們將其與人類(lèi)進(jìn)行類(lèi)比:

                1.大語(yǔ)言模型(LLM):LLM作為智能體的“大腦”部分,使其能夠處理信息,從交互中學(xué)習,做出決策并執行行動(dòng)。

                2.觀(guān)察:這是智能體的感知機制,使其能夠感知其環(huán)境。智能體可能會(huì )接收來(lái)自另一個(gè)智能體的文本消息、來(lái)自監視攝像頭的視覺(jué)數據或來(lái)自客戶(hù)服務(wù)錄音的音頻等一系列信號。這些觀(guān)察構成了所有后續行動(dòng)的基礎。

                3.思考:思考過(guò)程涉及分析觀(guān)察結果和記憶內容并考慮可能的行動(dòng)。這是智能體內部的決策過(guò)程,其可能由LLM進(jìn)行驅動(dòng)。

                4.行動(dòng):這些是智能體對其思考和觀(guān)察的顯式響應。行動(dòng)可以是利用 LLM 生成代碼,或是手動(dòng)預定義的操作,如閱讀本地文件。此外,智能體還可以執行使用工具的操作,包括在互聯(lián)網(wǎng)上搜索天氣,使用計算器進(jìn)行數學(xué)計算等。

                5.記憶:智能體的記憶存儲過(guò)去的經(jīng)驗。這對學(xué)習至關(guān)重要,因為它允許智能體參考先前的結果并據此調整未來(lái)的行動(dòng)。

                四、向量數據庫

                向量數據庫是專(zhuān)注于存儲和查詢(xún)向量的系統,其向量源于文本、語(yǔ)音、圖像等數據的向量化表示。相較于傳統數據庫,向量數據庫更擅長(cháng)處理非結構化數據,比如:文本、圖像和音頻。在機器學(xué)習深度學(xué)習中,數據通常以向量形式存在。向量數據庫憑借高效存儲、索引和搜索高維數據點(diǎn)的能力,在處理比如:數值特征、文本或圖像嵌入等復雜數據時(shí)表現出色。

                wKgZomZrqNyAFi26AANaw_EbSyU199.png

                ?

                GPT 彰顯了卓越的智能性能,其成功歸功于眾多要素,但在工程實(shí)現上,一個(gè)決定性的突破在于:神經(jīng)網(wǎng)絡(luò )與大型語(yǔ)言模型將語(yǔ)言問(wèn)題轉化為數學(xué)問(wèn)題,并以高效工程方法解決了這一數學(xué)挑戰。

                在人工智能領(lǐng)域,知識與概念的內在表示均采用數學(xué)向量。這個(gè)過(guò)程,即將詞匯、文本、語(yǔ)句、段落、圖片或音頻等對象轉換為數學(xué)向量,被稱(chēng)為嵌入(Embedding)。

                以 OpenAI 為例,它采用一個(gè) 1536 維的浮點(diǎn)數向量空間。當你向 ChatGPT 提出疑問(wèn)時(shí),輸入的文本首先被編碼并轉換成一個(gè)數學(xué)向量,隨后作為神經(jīng)網(wǎng)絡(luò )的輸入。神經(jīng)網(wǎng)絡(luò )產(chǎn)生的直接輸出也是一個(gè)向量,該向量隨后被解碼回人類(lèi)的自然語(yǔ)言或其他形式,最終呈現給你。

                ?

                wKgaomZrqN-AUipoAAFhydF95vY406.png

                ?

                人工智能大模型的"思考"過(guò)程,本質(zhì)上是一系列涉及向量和矩陣的數學(xué)運算,包括加法、乘法以及它們的逆運算。這些運算對于人類(lèi)來(lái)說(shuō)非常抽象,難以直觀(guān)理解。然而,這種數學(xué)形式非常適合通過(guò)專(zhuān)用硬件如GPU(圖形處理單元)、FPGA(現場(chǎng)可編程門(mén)陣列)或ASIC(專(zhuān)用集成電路)來(lái)高效執行,從而為AI提供了一個(gè)基于硅的仿生"大腦"。這個(gè)"大腦"擁有龐大的神經(jīng)元網(wǎng)絡(luò )、迅捷的處理速度、先進(jìn)的學(xué)習算法,能夠展現出令人驚嘆的智能水平,并且具備快速自我復制和理論上的持久運行能力。

                語(yǔ)言大模型處理的是編碼、運算到輸出的整個(gè)流程。但是,單純的計算并不足以支撐其智能行為,記憶同樣是關(guān)鍵組成部分。大型模型可以被看作是對人類(lèi)公開(kāi)數據集進(jìn)行壓縮和存儲的一種形式,其中包含的豐富知識通過(guò)訓練過(guò)程被編碼進(jìn)模型,體現在模型的權重參數中。為了實(shí)現更高精度、更長(cháng)期、更過(guò)程化的大容量記憶存儲,就需要借助向量數據庫技術(shù)。這些數據庫專(zhuān)門(mén)設計來(lái)高效存儲和檢索高維向量,它們是大模型記憶功能的重要支撐,使得AI系統能夠更精準地回憶和利用已學(xué)習的知識。

                五、知識圖譜

                知識圖譜是一種以圖形式存儲和管理知識的數據庫,它基于實(shí)體和它們之間的關(guān)系來(lái)構建。這種結構化的數據庫設計用于高效地組織和呈現人類(lèi)知識的各個(gè)方面。

                知識圖譜通過(guò)語(yǔ)義分析抽取信息,建立實(shí)體之間的聯(lián)系,構建出層次化的網(wǎng)絡(luò )結構。在這個(gè)網(wǎng)絡(luò )中,實(shí)體如人物、地點(diǎn)、機構等,不僅被賦予了特定的屬性,還通過(guò)各種關(guān)系與其他實(shí)體相連。通過(guò)先進(jìn)的數據挖掘技術(shù)、信息處理方法和圖形化展示手段,知識圖譜能夠揭示知識領(lǐng)域的演變趨勢,為學(xué)術(shù)研究提供有力的數據支持。

                知識圖譜在反欺詐領(lǐng)域應用廣泛,通過(guò)分析實(shí)體間關(guān)系網(wǎng)絡(luò )識別潛在欺詐行為。它整合多源數據,實(shí)現多維度風(fēng)險評估和異常檢測,提高預警準確性。知識圖譜的可視化分析助力快速識別欺詐模式,同時(shí)輔助制定和優(yōu)化反欺詐策略。此外,它還用于貸后管理和案件調查,提升金融風(fēng)控效率和效果。隨著(zhù)技術(shù)發(fā)展,知識圖譜在反欺詐中的作用日益凸顯。

                wKgZomZrqOCAfLHnAAFBPY2NEYY625.png

                ?

                ?

                知識圖譜與智能體(AI Agent)結合,提供了豐富的背景知識與實(shí)體關(guān)系,增強了智能體的決策和理解能力。這種結合使得智能體能夠執行個(gè)性化服務(wù)、自動(dòng)化任務(wù)、復雜問(wèn)題解決等,同時(shí)提高了學(xué)習和適應能力。智能體通過(guò)知識圖譜進(jìn)行上下文理解,實(shí)現精準的交互和響應,優(yōu)化了用戶(hù)體驗,并提升了服務(wù)效率和準確性。

                六、微調(Fine-tuning)

                6.1 什么是微調(Fine-tuning)

                大模型微調是提升AI應用性能的有效手段,主要基于以下幾點(diǎn)考慮:

                首先,大模型由于參數眾多,訓練成本極高,不適宜每家公司都從頭開(kāi)始訓練。微調可以在現有模型基礎上進(jìn)行,性?xún)r(jià)比更高。

                其次,雖然Prompt Engineering是一種易于上手的大模型使用方式,但它存在明顯缺陷。大模型通常對輸入序列長(cháng)度有限制,而Prompt Engineering可能導致輸入過(guò)長(cháng),增加推理成本,甚至因超長(cháng)被截斷,影響輸出質(zhì)量。對企業(yè)而言,微調可以更有效地控制推理成本。

                第三,當Prompt Engineering效果不佳,而企業(yè)又擁有高質(zhì)量的自有數據時(shí),微調可以顯著(zhù)提升模型在特定領(lǐng)域的性能。

                第四,微調支持個(gè)性化服務(wù)。企業(yè)可以針對每個(gè)用戶(hù)的數據訓練輕量級的微調模型,提供定制化服務(wù)。

                最后,數據安全也是微調的重要原因。對于不能共享給第三方的數據,企業(yè)需要自行微調開(kāi)源大模型,以滿(mǎn)足業(yè)務(wù)需求并保障數據安全。

                綜上所述,大模型微調可以降低訓練成本,提升特定領(lǐng)域性能,支持個(gè)性化服務(wù),并保障數據安全,是企業(yè)利用AI技術(shù)的重要策略。通過(guò)微調,企業(yè)可以更高效、更安全地利用大模型,推動(dòng)業(yè)務(wù)發(fā)展。

                6.2 如何微調(Fine-tuning)

                在參數規模上,大模型微調主要有兩種方法:全量微調(FFT)和參數高效微調(PEFT)。

                FFT通過(guò)用特定數據訓練模型,將權重矩陣W調整為W',從而在相關(guān)領(lǐng)域提升性能。然而,FFT存在兩個(gè)主要問(wèn)題:一是訓練成本高,因為微調的參數量與預訓練相同;二是災難性遺忘,即微調可能削弱模型在其他領(lǐng)域的表現。

                PEFT旨在解決FFT的這些問(wèn)題,是目前更流行的微調方法。從訓練數據來(lái)源和方法來(lái)看,PEFT包括幾種技術(shù)路線(xiàn):

                1.監督式微調(SFT),使用人工標注數據,通過(guò)監督學(xué)習進(jìn)行微調。

                2.基于人類(lèi)反饋的強化學(xué)習微調(RLHF),將人類(lèi)反饋通過(guò)強化學(xué)習引入微調,使模型輸出更符合人類(lèi)期望。

                3.基于A(yíng)I反饋的強化學(xué)習微調(RLAIF),與RLHF類(lèi)似,但反饋來(lái)自AI,以提高反饋系統的效率。

                不同的微調方法側重點(diǎn)不同,實(shí)際操作中可以結合多種方案,以達到最佳效果。

                七、Function Calling

                ChatGPT引入了一個(gè)名為Function Calling的新功能,它允許用戶(hù)在A(yíng)PI調用中向模型gpt-3.5-turbo-0613和gpt-4-0613描述函數,并讓模型智能選擇輸出一個(gè)包含調用這些函數參數的JSON對象。不過(guò),Chat completions API本身并不直接調用這些函數,而是生成一個(gè)JSON,供用戶(hù)在自己的代碼中調用這些函數。

                function calling從本質(zhì)上并不是嚴格的工具調用, 而是作為工具調用的前奏,它通過(guò)更加結構化的方式指導LLM輸出,為在本地執行具體函數提供了參數,鋪平了道路。

                以“股票價(jià)格查詢(xún)”為例,可以定義一個(gè)名為get_stock_price的函數,該函數接收股票代碼作為參數。LLM根據用戶(hù)的問(wèn)題,如“請查詢(xún)股票代碼為AAPL的價(jià)格”,識別出需要調用get_stock_price函數,并從問(wèn)題中提取出參數值“AAPL”。

                開(kāi)發(fā)者隨后可以根據這個(gè)JSON參數,在后端用實(shí)際的代碼實(shí)現查詢(xún)股票價(jià)格的功能,并將查詢(xún)結果傳遞回LLM,最終由LLM將信息呈現給用戶(hù)。

                ChatGLM3通過(guò)在模型輸入中嵌入函數描述的邏輯來(lái)實(shí)現工具調用,這涉及到對輸入的prompt進(jìn)行一些調整,使得模型能夠識別和響應函數調用的需求。

                總之,工具調用為L(cháng)LM提供了調用外部工具的能力,擴展了其應用范圍,開(kāi)發(fā)者可以定義各種功能的函數,幫助LLM完成更復雜的任務(wù)。

                八、AGI

                AGI即通用人工智能(Artificial General Intelligence)。按照維基百科的定義,通用人工智能是具備與人類(lèi)同等智能、或超越人類(lèi)的人工智能,能表現正常人類(lèi)所具有的所有智能行為。

                AGI(通用人工智能)代表著(zhù)人工智能發(fā)展的頂峰,旨在創(chuàng )造能夠理解并處理各類(lèi)復雜任務(wù)的智能系統,與人類(lèi)智能相匹敵。在通往這一宏偉目標的征途上,一系列關(guān)鍵技術(shù)發(fā)揮著(zhù)不可或缺的作用。

                AI大模型通過(guò)其龐大的數據和模型參數,為理解和生成語(yǔ)言提供了基礎。Prompt Engineering則通過(guò)精心設計的提示,引導AI模型產(chǎn)生準確的響應。Agent智能體技術(shù)賦予了AI自主行動(dòng)和決策的能力,而知識庫和向量數據庫則為AI提供了豐富的信息資源和高效的數據檢索能力。

                RAG(Retrieval-Augmented Generation)模型結合了檢索和生成,進(jìn)一步提升了AI處理任務(wù)的靈活性和準確性。知識圖譜則通過(guò)結構化的方式,將知識以圖的形式表示,增強了AI的推理和關(guān)聯(lián)能力。

                這些技術(shù)相互配合,形成了一個(gè)多元化、高度協(xié)作的AI生態(tài)系統。它們共同推動(dòng)著(zhù)AI技術(shù)的持續進(jìn)步,為實(shí)現AGI的終極目標打下了堅實(shí)的基礎。隨著(zhù)技術(shù)的不斷發(fā)展和創(chuàng )新,我們離實(shí)現真正的通用人工智能的愿景越來(lái)越近。

                審核編輯 黃宇

                聲明:本文內容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權轉載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習之用,如有內容侵權或者其他違規問(wèn)題,請聯(lián)系本站處理。 舉報投訴
                • AI
                  AI
                  +關(guān)注

                  關(guān)注

                  87

                  文章

                  27199

                  瀏覽量

                  264959
                • 人工智能
                  +關(guān)注

                  關(guān)注

                  1781

                  文章

                  44782

                  瀏覽量

                  231942
                • Agi
                  Agi
                  +關(guān)注

                  關(guān)注

                  0

                  文章

                  65

                  瀏覽量

                  10142
                • 大模型
                  +關(guān)注

                  關(guān)注

                  2

                  文章

                  1824

                  瀏覽量

                  1420
                收藏 人收藏

                  評論

                  相關(guān)推薦

                  解讀人工智能的未來(lái)

                  交通路線(xiàn)等等。而目前讓人們感到恐慌的實(shí)際上是另一種人工智能,它叫做AGI人工通用智能,它是一種像人類(lèi)一樣聰明靈活的
                  發(fā)表于 11-14 10:43

                  什么是基于云計算的人工智能服務(wù)?

                  如今,采用人工智能的企業(yè)遇到了一個(gè)主要障礙,那就是在內部開(kāi)發(fā)人工智能產(chǎn)品成本高昂,因此有了外包人工智能產(chǎn)品的需求。而對于從中小企業(yè)預算受限的大型企業(yè)來(lái)說(shuō),通過(guò)云計算來(lái)采
                  發(fā)表于 09-11 11:51

                  如何使用人工智能來(lái)發(fā)揮傳感器數據的協(xié)同作用

                  人工智能(AI)目前正在為社會(huì )的方方面面帶來(lái)革新。比如,通過(guò)結合數據挖掘和深度學(xué)習的優(yōu)勢,如今可以利用人工智能來(lái)分析各種來(lái)源的大量數據,識別各種模式、提供交互式理解和進(jìn)行智能預測。
                  發(fā)表于 05-19 08:13

                  通用人工智能啥時(shí)候能實(shí)現

                  通用人工智能啥時(shí)候能實(shí)現
                  發(fā)表于 12-17 06:19

                  AGI:走向通用人工智能的【生命學(xué)&哲學(xué)&科學(xué)】第一篇——生命、意識、五行、易經(jīng)、量子 精選資料分享

                  AGI:走向通用人工智能的【生命學(xué)&哲學(xué)&科學(xué)】第一篇——生命、意識、五行、易經(jīng)、量子經(jīng)典的物理統一在原子上,量子的物理統一在量子上,化學(xué)統一在元素上,而生命統一在DNA上,DNA
                  發(fā)表于 07-26 06:57

                  人工智能芯片是人工智能發(fā)展的

                  人工智能芯片是人工智能發(fā)展的 | 特倫斯謝諾夫斯基責編 | 屠敏本文內容經(jīng)授權摘自《深度學(xué)習 智能時(shí)代的核心驅動(dòng)力量》AlphaGo的人機對戰,
                  發(fā)表于 07-27 07:02

                  人工智能基本概念機器學(xué)習算法

                  目錄人工智能基本概念機器學(xué)習算法1. 決策樹(shù)2. KNN3. KMEANS4. SVM5. 線(xiàn)性回歸深度學(xué)習算法1. BP2. GANs3. CNN4. LSTM應用人工智能基本概念數據集:訓練集
                  發(fā)表于 09-06 08:21

                  什么是人工智能、機器學(xué)習、深度學(xué)習和自然語(yǔ)言處理?

                  理論,使計算機具有自我意識和自主性,而目前它們的化身是依賴(lài)于運行用戶(hù)定義程序的機器。機器學(xué)習是人工智能的一個(gè)子集,它涉及經(jīng)驗中學(xué)習,而深度學(xué)習則是機器學(xué)習的一個(gè)領(lǐng)域,專(zhuān)注于在數據本身上構建概念。
                  發(fā)表于 03-22 11:19

                  《移動(dòng)終端人工智能技術(shù)與應用開(kāi)發(fā)》人工智能的發(fā)展與AI技術(shù)的進(jìn)步

                  人工智能打發(fā)展是算法優(yōu)先于實(shí)際應用。近幾年隨著(zhù)人工智能的不斷普及,許多深度學(xué)習算法涌現,最初的卷積神經(jīng)網(wǎng)絡(luò )(CNN)機器學(xué)習算法的時(shí)代。由于應用環(huán)境的差別衍生出不同的學(xué)習算法:線(xiàn)性
                  發(fā)表于 02-17 11:00

                  【書(shū)籍評測活動(dòng)NO.16】 通用人工智能:初心與未來(lái)

                  ,以及當前“專(zhuān)用人工智能實(shí)現真正的“通用人工智能”還需要在哪些方面取得突破。書(shū)中對當前人工智能技術(shù)的發(fā)展路徑提出了不少質(zhì)疑,也給出了新
                  發(fā)表于 06-21 14:41

                  通用人工智能:初心與未來(lái)》-試讀報告

                  作者給出的結論。整體讀下來(lái),可以給我們關(guān)于通用人工智能全面的了解。作者也反復強調了通用人工智能與專(zhuān)用智能的區別。尤其是人們錯誤的認為一堆專(zhuān)用智能堆砌起來(lái)就是
                  發(fā)表于 09-18 10:02

                  什么是人類(lèi)智能 楊學(xué)山淺談通用人工智能的發(fā)展途徑

                  近日,在"第五屆中國行業(yè)互聯(lián)網(wǎng)大會(huì )"上,北京大學(xué)兼職教授、工信部原副部長(cháng)楊學(xué)山發(fā)表了題為《走向通用人工智能》的演講。重點(diǎn)講述了通用人工智能AGI的歷史,闡釋了什么是人類(lèi)智能,最后探討了
                  的頭像 發(fā)表于 09-02 10:20 ?2825次閱讀

                  通用人工智能是什么_通用人工智能四大基本問(wèn)題

                  AGI即Artificial general intelligence的簡(jiǎn)寫(xiě) ,計算機科學(xué)與技術(shù)專(zhuān)業(yè)用語(yǔ),專(zhuān)指通用人工智能。這一領(lǐng)域主要專(zhuān)注于研制像人一樣思考、像人一樣從事多種用途的機器。這一單詞
                  的頭像 發(fā)表于 12-28 14:58 ?3.8w次閱讀

                  聆心智能上榜“北京市通用人工智能模型行業(yè)應用典型場(chǎng)景案例”

                  7月2日,作為 2023 全球數字經(jīng)濟大會(huì )同期舉辦的六大高峰論壇之一,人工智能高峰論壇率先亮相。以“智能涌現·重塑未來(lái)”為主題,聚焦通用模型發(fā)展等熱點(diǎn)問(wèn)題,助力北京打造國際化的
                  的頭像 發(fā)表于 07-05 09:54 ?486次閱讀
                  聆心<b class='flag-5'>智能</b>上榜“北京市<b class='flag-5'>通用人工智能</b>大<b class='flag-5'>模型</b>行業(yè)應用典型場(chǎng)景案例”

                  2023通用人工智能算力論壇在京舉辦

                  石景山智能算力中心啟動(dòng)建設 8月28日, 2023中國國際服務(wù)貿易交易會(huì )常態(tài)化活動(dòng)的通用人工智能算力論壇在北京石景山成功舉辦。論壇以“智見(jiàn)·共創(chuàng )算力新時(shí)代”為主題,政府部門(mén)、院士專(zhuān)家學(xué)者及人工智能
                  的頭像 發(fā)表于 08-29 17:36 ?412次閱讀
                  2023<b class='flag-5'>通用人工智能</b>算力論壇在京舉辦
                  RM新时代网站-首页

                                RM新时代官方 RM新时代手机版 RM新时代官网 RM新时代官网 RM新时代手机版下载

                                              RM新时代反波胆平台有限公司 RM新时代反波胆33能稳多久 RM新时代平台靠谱平台入口-百度知道 新时代手机平台官网 RM新时代有限公司 RM新时代|官方理财平台 RM新时代反波 rm新时代反波胆平台 RM新时代成立多久了 RM新时代首页