卡米爾於2023年研發之波特人botrun技術,可透過以下六個層次來進行客製化的打造,不只是chatgpt而已,還能融合地端模型,又可以符合「行政院及所屬機關(構)使用生成式 AI 參考指引」,感覺好夢幻啊!簡直就像哈利波特一樣有魔法了~無私分享大家來研讀看看喔!
第1層 – 預訓練Pre-training (必懂關鍵字:WizardLM 70B)
目前在人工智慧預訓練模型(Pre-training model)的領域中,最先進的技術之一是 OpenAI 的 GPT-4 (1500B參數量)。GPT-4 是一個大型的多模態模型,能夠接受圖像和文字輸入,輸出文字。它在許多專業和學術標準測試中展現出接近人類的表現水平。例如,在一個模擬的律師考試中,GPT-4 的分數排在前10%之內,相較於 GPT-3.5 (175B參數量) 的成績位於後10%。
GPT-4 在傳統的機器學習基準測試中,表現顯著優於現有的大型語言模型和大部分最先進的模型。此外,GPT-4 在24種中的26種語言測試中表現優於 GPT-3.5 和其他大型語言模型,包括對於資源較少的語言如拉脫維亞語、威爾士語和斯瓦希里語。
地端的,繁體中文友善大模型,目前智慧排行榜2023/12最好的,是 WizardLM 70B,經過我們實際驗證在複雜的提示工程理解力較佳,逼近 GPT-3.5 175B的應答能力。
第2層 – 微調 Fine-tuning(必懂關鍵字:QLoRA)
截至 2023 年,大型語言模型(LLM)的微調(Fine-tuning)領域中的重要技術包括 Alpaca、Falcon、GPT-4 等。這些技術通過微調過程,允許自訂預訓練模型以滿足特定任務,因此提供針對個人化需求的創新解決方案。
微調是 LLM 模型開發的重要部分,它調整預訓練的模型以更好適應特定資料集,增強其在特定任務中的表現並確保更有針對性的應用。例如,這些技術可以用於從情感分析到醫學文獻綜述等各種任務。
微調過程的一個重要基礎是 Transformer 架構,這是一種神經網路,利用自注意力機制優先考慮單字的上下文而不是它們在句子中的鄰近性。
在微調技術中,LoRA(低階適應)技術是突破性的。LoRA 通過在 Transformer 架構的每一層中整合新的可訓練低秩矩陣,凍結 LLM 的原始權重。這種方法減少了可訓練參數的數量,因此提供了更有效的微調替代方案。
此外,QLoRA 技術建立在 LoRA 的基礎上,進一步減少了記憶體需求。QLoRA 結合了低秩自適應與量化,保持了 16 位元微調方法的功效,同時在計算過程中將 4 位元權重反轉為 16 位元,因此最佳化了記憶體使用。
第3層 – 提示工程 Prompt Engineering(必懂關鍵字:小步前進)
非聊天案例應用:Chat Completion API 不僅適用於聊天案例,也可用於例如情感分析等其他類型的任務。
提示順序:建議在分享其他內容或範例之前,先告訴模型想執行工作任務描述。
指定輸出結構:在提示結尾包含特定單字或片語,以取得遵循所需格式的模型回應。
使用清楚的語法:包括標點符號、標題和區段標記,有助於傳達意圖並讓輸出更容易解析。
小步前進、工作細分:將大型任務細分為較小的步驟,有助於提高大型語言模型的效能。
外部資源:讓模型使用外部資源,以減輕產生答案的負擔,取得最新資訊。
思維鏈提示:指示模型逐步 step by step 執行推理分析,並呈現涵蓋的所有步驟,然後才回應答案,有助於降低結果不準確的可能性。
第4層 – 工具 Tool(必懂關鍵字:langchain)
Alpha Vantage:提供即時和歷史金融市場數據的數據API和電子表格。
Apify:展示如何在 LangChain 中使用 Apify 整合。
ArXiv:介紹如何將 arxiv 工具與代理結合使用。
AWS Lambda:Amazon 提供的無服務器計算服務,讓開發者無需佈置或管理服務器即可建構和運行應用程式。
Shell (bash):給代理提供對 shell 的存取權限。
Bearly Code Interpreter:允許遠程執行程式,適合作為代理的程式沙盒。
Bing Search、Brave Search:介紹如何使用這些搜尋組件。
ChatGPT Plugins:展示如何在 LangChain 抽象中使用 ChatGPT 外掛。
Dall-E Image Generator:展示如何從使用 OpenAI LLM 合成的提示生成圖像。
DataForSeo:展示如何使用 DataForSeo API 取得搜尋引擎結果。
DuckDuckGo Search:介紹如何使用 duck-duck-go 搜尋組件。
E2B Data Analysis、Eden AI、Eleven Labs Text2Speech:介紹相關工具的使用。
File System:LangChain 提供與本地文件系統交互的工具。
Golden Query:提供自然語言 API 用於查詢和豐富數據。
Google Cloud Text-to-Speech、Google Drive、Google Finance、Google Jobs、Google Lens、Google Places、Google Scholar、Google Search、Google Serper、Google Trends:介紹如何使用這些 Google 工具。
Gradio、GraphQL:介紹這些工具的使用。
HuggingFace Hub Tools:支援文字 I/O 的 Huggingface 工具。
Human as a tool:人類作為工具協助 AI 代理。
IFTTT WebHooks、Lemon Agent、Memorize、Metaphor Search:介紹相關工具的使用。
Nuclia Understanding:為未結構化數據自動建立索引,提供最佳化的搜尋結果和生成答案。
OpenWeatherMap、PubMed、Reddit Search、Requests、SceneXplain、Search Tools、SearchApi、SearxNG Search、SerpAPI、StackExchange、Tavily Search:介紹這些搜尋和分析工具的使用。
Twilio:介紹如何使用 Twilio API 包發送消息。
Wikipedia、Wolfram Alpha、Yahoo Finance News、YouTube:介紹如何使用這些資源和服務。
第5層 – 檢索增強 RAG(必懂關鍵字:向量資料庫)
檢索增強生成(Retrieval Augmented Generation, RAG)是一種用於改善大型語言模型(LLM)產生錯誤資訊(hallucination)的方法。然而,對於不同的大型語言模型,RAG的影響缺乏嚴格評估,這使得辨識RAG在不同LLM中的潛在瓶頸成為一項挑戰。最近的研究建立了一個新的檢索增強生成基準(Retrieval-Augmented Generation Benchmark, RGB),用於英文和中文的RAG評估。RGB基於四種基本能力(噪聲穩健性、否定拒絕、資訊整合和反事實穩健性)對六個代表性的大型語言模型進行評估。
評估結果顯示,儘管RAG可以提高LLM的回應準確性,但這些模型在處理負面拒絕、資訊整合,以及處理錯誤資訊方面仍然存在顯著挑戰。例如,當面對有關2022年諾貝爾文學獎的問題時,如果外部檔案中包含關於2021年諾貝爾文學獎的噪音檔案,LLM可能會混淆並提供不準確的答案。此外,當沒有外部檔案包含相關資訊時,LLM經常無法拒絕回答並生成錯誤答案。此外,LLM缺乏從多個檔案中總結資訊的能力,因此如果需要多個檔案來回答一個問題,LLM往往無法提供準確的答案。最後,即使LLM包含所需知識並通過指導獲得有關檢索資訊中潛在風險的警告,它們仍然傾向於信任並優先考慮檢索資訊而非自己現有的知識。上述實驗結果凸顯了現有RAG方法中需要進一步解決的重要問題,因此在使用時需要謹慎並仔細設計其使用方式。
第6層 – 波特人小隊Multi-agent(必懂關鍵字:AutoGen)
2023/12 人工智慧多代理系統(Multi-agent AI)的幾個領先技術包括:
AutoGen 和 ChatDev 是當前市場上的兩個多代理系統框架,它們針對的目的和受眾不同。
AutoGen
核心焦點:建立一個通用的多代理會話框架,以促進基於 LLM 的複雜工作流程。為多代理會話提供抽象層,讓開發者能夠建立有效協作以達成特定任務目標的自主代理。
實施和客製化:提供更具體的代理框架,具有強大、簡化和抽象的代理實施方式。允許開發者定義角色並協調代理互動以有效完成任務。
ChatDev
核心焦點:旨在使用多語言模型模擬整個軟體開發團隊。通過自然語言思想建立客製化軟體。
實施和客製化:開始設計階段,接收客戶的初始想法,並通過角色如 CEO、CPO 和 CTO 協作來定義技術設計要求。易於使用和高度可客製化,允許更以社群為中心的多代理協作方法。
營運環境:使用 LLM 代理模擬整個軟體開發團隊。更多關於利用集體智慧和促進無程式軟體開發。
想了解更多成功案例請參考:波特人官網