人工智能(AI)的浪潮正勢不可擋地占據了軟件應用開發的前沿。現在,除了傳統的C級技術領導角色之外,評論家、行業分析人士、AI倡導者以及新設立的首席人工智能官(CAIO)等職位也相繼出現,成為這一領域的新補充。
當前討論主要集中在三個層次上。首先是支持人工智能所必須的計算能力背后,需要建立的后端基礎設施;其次,行業內部對于中間層面也展示出了關切,尤其關注于制定相關標準(安全措施)以及對人工智能處理個人可識別信息(PII)所帶來的風險進行擔憂;最后,在應用層面,人們不僅關注于開發旨在輔助人類工作的協作工具,同時也越來越關注AI機器人創建甚至擁有自己的社交媒體賬戶的現象。
隨著預測性、反應式和生成式人工智能越來越普及,新興服務紛紛將自然語言處理(NLP)作為核心技術,這也推動了LLMs(LLM)的廣泛應用。其中,一些如OpenAI的GPT、Google AI的PaLM支持下的Bard、Anthropic的Claude AI、Meta的LLaMA、BLOOM和Ernie Titan等技術,已經廣受人們熟知。然而,構建這些高級模型所涉及的資源、時間成本和技術門檻使得不少機構難以自主開發,進而激發了行業內部關于如何選擇恰當的先進模型,以及如何深度解析它們內部邏輯的討論。
面對降低技術復雜度的諸多挑戰,IT團隊需要明確如何有效利用這些AI核心組件。同時,為了簡化這一進程,我們還需考慮哪些自動化策略可以采納。這些針對如何優化人工智能技術應用的問題正逐漸成為行業討論的中心話題。
01 確定適合特定任務的LLMs
Appian低代碼軟件平臺和流程自動化解決方案顧問Ysanne Baxter指出,當組織評估不同的LLMs時,首要任務是確立自己面臨的業務挑戰或改進機會。在此基礎上,組織需要深入分析相關的任務流程及涉及的人員,以此來構建精準的應用場景。他強調,認識到每款模型都有其獨特的架構、訓練數據、優勢和應用范圍的重要性。商用的LLMs通常是其他項目的底層支撐,它們提供了一個平臺以便用戶進行進一步的定制或針對特定任務的開發。這類模型設計時考慮了靈活性和擴展性,特別是在處理龐大、多元且復雜的基礎數據集時,往往能展現出更好的性能。
不同的模型架構可能會導致輸出結果各異。模型需要先處理大量文本數據,比如針對產品或服務的客戶評價。若組織意圖從中識別關鍵觀點或主題,這些分析結果就可以幫助生成響應措施和新功能,從而提升產品質量。有多個模型可以處理此類任務,并且有工具可以用來同時訓練多個模型。開發人員可以在流程結束后,根據實際的性能指標,評估這些模型的輸出結果,從而選出最適合當前需求的模型。
總而言之,最關鍵的是確定適合特定任務的LLMs。如果一個組織已經清楚自己面對的問題或所把握的機會,并且對于所使用的數據與期望的結果有準確的理解,那么在評估并選擇與手頭任務最匹配的模型時,就能從一個堅實的基礎出發。
02 LLMs是低代碼的加速器
在機器學習/人工智能領域,很難找準一個合適的切入點。對此,Baxter指出,低代碼開發工具以其易用性顯著降低了這種復雜性。開發者可以利用這些工具快速啟動項目,而這背后得益于專家團隊對相關技術的深刻洞察。新任務的開展無需從零開始構建全新模型,反而是可以依靠該團隊在機器學習/人工智能工具上的長期研究和開發成果來實現目標。他認為,低代碼的路徑實際上是一種跨學科合作的體現,它允許將這些領域的知識與自己的專業能力相結合,以一種快速并與組織的需求緊密結合的方式來運用。
Appian團隊指出,在多種情形下,現成的低代碼人工智能工具已經可以滿足需求。例如,許多電子郵件服務商都利用自然語言處理技術來過濾垃圾郵件。開發者通過選用適合特定AI場景的低代碼工具,可以大幅提升工作效率,避免了重新設計已有產品或功能所需的大量時間投入。
Baxter還提到,低代碼工具使得開發者能在行業頂尖工具的基礎上進行擴展和構建。通過采用低代碼方法,開發者在應用現成的LLMs開發新的AI解決方案時,能夠在短時間內實現高效率、高產出和強大的影響力。
然而,在整個開發過程中,對個人信息和敏感任務數據的保護依然至關重要。使用現成的LLMs時,通常不會涉及敏感數據的識別問題。舉例來說,用戶可能會輸入英國國民保險號或美國社會保障號碼到ChatGPT中,但據Baxter了解,就模型本身而言,目前并未有有效的機制來防止這些信息被完整吸收和傳播。
03 開源還是閉源?
開源項目的優勢在于可以讓人們審查源代碼,并據此評估其有效性。這一點在人工智能領域尤為關鍵,因為高性能人工智能模型需要龐大的數據集,進行數據分析既耗費時間又復雜,有時甚至難以執行。因此,對其影響力和重要性的評估顯得尤為重要。與此相對,閉源模型像“黑盒”一樣,難以對其內部運作進行透徹的審視。雖然技術的完全透明是理想狀態,但要保護數據,透明度并非唯一選項。
Baxter提出了一種技術來提高生成型語言模型的準確性和可靠性,即檢索增強生成(Retrieval-Augmented Generation,簡稱RAG)。這一方法將人工智能模型與外部知識庫相結合。首先,需要確保所選數據集適用且目標明確。其次,要執行有效的訪問控制,并制定全面的策略,以確保從數據源中清除任何敏感或機密信息。最后,系統接收的查詢請求也需要進行驗證。目前業界對RAG技術持樂觀態度,認為它通過額外鏈接到可靠或至少公認的數據源,增強了驗證人工智能處理數據的潛力。
04 提示注入技術對AI模型的影響
提示注入技術的研究至關重要,這項技術能夠以多種方式改變AI模型的反應。提示注入的形式多樣,包括基本的注入攻擊、利用不同語言提問的翻譯注入、數學注入,以及同時針對不相關內容提問的上下文切換注入技術,比如同時詢問有關希臘假期和阿拉巴馬州卷心菜價格的問題。
這些技術可能會違背原先設定的模型指令或安全措施,影響模型未來的輸出結果。攻擊者會利用系統的漏洞進行提示注入,從而產生開發者未預期或未授權的答復。
Baxter指出,尤其在涉及自然語言處理時,確定系統漏洞并防范提示注入頗具挑戰。由于自然語言的靈活性,攻擊者可以更加自由地繞過安全防護。與需要精確語法的SQL注入不同,自然語言的處理標準遠不如此嚴格。因此,確保用戶輸入的驗證與凈化是必不可少的。開發者應當分享這些安全工具的實施和應對策略,幫助網絡安全領域的同事加強防護。
05 未來發展軌跡
在討論人工智能的未來發展和LLMs如何更好地融入現代企業軟件系統時,業界的觀點普遍傾向于,未來的LLMs將更精準地服務于特定的應用領域。
Baxter也贊同這一見解,他預計LLMs將更多地針對特定行業和任務進行優化。盡管市場上已有泛用型和專用型的模型解決方案,但未來的發展方向是提供既能貼合行業需求又能靈活適應特定場景的產品和服務。
值得欣慰的是,這一趨勢并非僅僅是技術簡化導致的復雜性增加。相反,新興AI技術的開發和應用需要軟件開發者、行業專家,以及非技術人員的共同努力。
前進的道路需要采取一種“協作且周到”的策略,確保不會因缺乏參與而導致這條前進之路變得荒涼。
文章由LowCode低碼時代編譯發布,如有侵權,請聯系刪除。
- END -
未經允許不得轉載:RPA中國 | RPA全球生態 | 數字化勞動力 | RPA新聞 | 推動中國RPA生態發展 | 流 > 人工智能軟件開發中的低代碼角色
熱門信息
閱讀 (14728)
1 2023第三屆中國RPA+AI開發者大賽圓滿收官&獲獎名單公示閱讀 (13753)
2 《Market Insight:中國RPA市場發展洞察(2022)》報告正式發布 | RPA中國閱讀 (13055)
3 「RPA中國杯 · 第五屆RPA極客挑戰賽」成功舉辦及獲獎名單公示閱讀 (12964)
4 與科技共贏,與產業共進,第四屆ISIG中國產業智能大會成功召開閱讀 (11567)
5 《2022年中國流程挖掘行業研究報告》正式發布 | RPA中國