
關於 NVIDIA NeMo Guardrails 我只是略懂(一)
在去年十一月 ChatGPT 出現在我眼前之後,第一個想法就是 LLMs 勢必將會快速的掃除 Chatbot 這樣一個應用領域在過去遇到的許多問題,毫無意外的,聊天機器人現在嚴然是最多開發者實踐 LLMs 的 downstream task。根據 Gartner 的一些報告,他們預期到 2027 年,聊天機器人將成為所有組織中 25% 的主要溝通渠道。 這種採用速度相當驚人,但也存在危險。聊天機器人可以非常有說服力地杜撰事實,而要像對真人一樣給聊天機器人設置指引也更加的困難。所以,如果你客服渠道後面部署了一群真人客服,他們會受過關於如何談論你的公司、不該說什麼、應該說什麼以及要禮貌等各方面的培訓。但對於 LLM-based 的聊天機器人來說在實務上是一件相當困難的事情,實作過你就會清楚的知道開發出一個 ChatGPT 的體驗跟直接與 OpenAI 的 API 串接完全是兩碼子難度的事情。 所以,當我們想要聊天機器人真正代表一個組織時,僅僅是串接上 chat completion API 絕對是組織自殺的最快路徑之一。真要導入 LLM-based 客服,中間要做的事情實在是太多了,我們需要更多技術與方法論來真正部署有用的 AI。因此,這就跟我接下來想要跟各位一起探索的 #Guardrails 有關。 Guardrails 是 NVIDIA 釋出的一個函式庫,主要用來幫助我們能夠更加安全地部署 LLM-based Chatbot。但實際上,我們可以用它做很多更多的事情。我們可以將其用於安全性、主題指引等,也可以將其用於更高階的使用。我們可以用它構建 Agents,用它進行 #RAG,當然也可以用它定義更加明確的對話流程。簡言之,如果一家公司要投資並部署聊天機器人卻不使用 Nemo Guardrails 或某種類似的 Guardrails 系統,我想都不敢想其下場會如何。就現階段我的實驗結果來說,如果你沒有這些機制,事情很容易就會 mess up。 在 LLM-based Chatbot中,最直接的作法就是讓我們的 Conversational