主頁數據+人工智能峰會2023標誌
舊金山6月每股26到29
虛擬的,6月28 - 29日
  • 會話
  • 概述
  • 為什麼參加
  • 培訓
關注需求

大型語言模型(LLM)

現在注冊

深入探究萬物LLM——從每天麵對麵培訓,社區會議關注LLM工具和使用負責,對磚開源模式多莉的專門會議,LLMOps等等。

會話

構建和部署大型語言模型在磚|的帶薪培訓

大型語言模型ChatGPT和多莉已經席卷了全球。每個人都從研究者和工程師到商業領袖是急於了解如何利用大型語言模型的最新發展(llm)。本課程旨在教授個人如何利用llm實際用例,包括流行的主題,如變壓器、伯特和GPT。通過互動講座和練習中,您將學習如何開發、實施、評估和部署llm磚。

把這個會話中目錄

測試生成的人工智能模型:你需要知道什麼

對於企業應用程序生成人工智能顯示了令人難以置信的承諾。的爆炸生成人工智能可以歸因於幾個因素的集合。最重要的是,人工智能應用程序開發人員的門檻已經通過可定製的提示(few-shot學習),使非專業人員能夠生成高質量的內容。模型的靈活性ChatGPT和DALLE-2引發了好奇心和創造力的新應用程序,他們可以支持。工具的數量將繼續增長的方式類似於AWS推動應用程序開發。但興奮必須破壞新風險對商業和社會的擔憂。也增加能力和采用增加風險。隨著組織探索創造性生成模型的邊界,降低風險的措施必須落實到位。然而,巨大的輸入空間的大小和固有的複雜性使這個任務比傳統ML模型更具挑戰性。

在這個會話中,我們總結了新的風險引入的新類的生成基礎模型通過幾個例子,並比較這些風險如何與主流歧視的風險模型。可以采取措施降低運營風險,偏見和公平問題,隱私和安全的係統,利用LLM自動化。幻覺,我們將探討模型輸出評估,輸出偏差,及時注射,數據泄漏特性轉化等等。我們將討論一些更大的問題常見llm並展示如何測試。一個全麵的、基於生成人工智能開發的方法將有助於培養模型的完整性,主動緩和失敗和相關的業務風險。

Yaron歌手,首席執行官和共同創始人,健壯的情報

把這個會話中目錄

迅速擴展應用人工智能/毫升與基本模型,應用現代人工智能/毫升用例

今天我們很多人都熟悉如LLM / ChatGPTl基本模型。然而,有很多企業的基本模型,可以快速部署、培訓和應用企業用例。這種方法極大地提高AI /毫升的性能模型在生產,但也給AI團隊快速路線圖對業務效率和交付價值。磚提供理想的工具集來支持這種方法。在這次會議中,我們將提供一個邏輯上的概述基本型號今天,展示一個真實的用例,並提供一個業務框架數據科學家和商界領袖合作快速部署這些用例。

創始人及首席執行官尼克•王動力學數據

把這個會話中目錄

如何審計語言模型

語言模型像ChatGPT難以置信的研究突破但需要審計和風險管理在隨筆。這些係統提高相關毒性的關注,透明度和再現性、知識產權許可和所有權,dis - &錯誤信息,供應鏈和重要的碳足跡。如何你的組織。利用這些新工具沒有承擔不必要的或未知的風險嗎?

最近的公共參考工作In-Q-Tel實驗室& 5。AI細節審計的命名實體識別(尼珥)應用程序基於pre-trained語言模型羅伯塔。如果你有一個語言模型用例記住&想要了解你的風險,本課程將介紹:

  • 使用人工智能研究的過去事件事件數據庫,並利用這些信息來指導調試。
  • 發現和解決常見的數據質量問題。
  • 公眾應用工具和適當的基準(如清單,強力膠,舵)。
  • Binarizing特定任務&調試使用傳統模型測試評估和偏見。
  • 構建敵對攻擊基於模型的最重要的風險,分析結果在性能方麵,情緒和毒性。
  • 測試性能,情緒和毒性不同和不太常見的語言。
  • 進行隨機攻擊:攻擊的隨機序列,提示或其他測試,可能會引起意想不到的反應。
  • 不要忘記安全:審計代碼後門&中毒的訓練數據,確保端點保護認證&節流和分析第三方依賴關係。
  • 參與利益相關者來幫助發現問題係統設計師和開發人員無法看到。

現在是時候找出如何生活與人工智能,這意味著審計、風險管理和監管。

首席科學家帕特裏克·霍爾,BNH.AI

把這個會話中目錄

可說明的數據為NLP漂移

檢測數據漂移,雖然遠沒有解決對表格數據,已成為一個慣例來監控毫升模型在生產。另一方麵對自然語言處理問題仍然開放。在這次演講中,我們將介紹並比較兩種方法。首先,我們將演示如何通過提取多種屬性解釋每個文檔等話題,語言,情緒,命名實體,關鍵字和我們能夠探索漂移的潛在來源。我們將展示如何持續跟蹤這些屬性隨著時間的推移,他們如何可以用來檢測出有意義的數據一旦發生漂移,以及他們如何可以用來解釋和解決問題的根源。第二種方法我們將目前檢測漂移通過使用嵌入的共同基礎模型(如OpenAI GPT3模型家族)和使用它們來確定區域嵌入空間中發生了明顯的漂移。這些領域在嵌入空間中應該表現為一個人類可讀的方式使發現漂移的根本原因分析。然後我們將比較這兩種方法的性能和explainability,並探索使用每種方法的利弊。

諾姆·布瑞斯勒,Deepchecks毫升團隊領導

把這個會話中目錄

與基礎模型建立AI-powered產品

基礎模型為精彩的演示,但在實踐中,他們可以挑戰投入生產。這些模型工作超過匹配常見的訓練數據集分布(如生成web文本或互聯網圖像),但可能會失敗在特定領域的任務或長尾邊緣案件(設置最重要的組織構建差異化的產品!我們提出一個以數據為中心的開發方法,組織可以使用基礎模型適應自己的私人/專有的數據集。我們將描述一些技術,包括監督“warmstarts”和交互式提示(提示:不需要代碼!)。使這些技術來生活,我們步行通過實際案例研究描述我們所看到的以數據為中心的開發驅動AI-powered產品,從“人工智能輔助”用例(例如文案助理)“全自動”解決方案(如貸款處理引擎)。

文森特•陳產品/創始主任工程師,潛水AI

把這個會話中目錄

Colossal-AI:縮放AI模型在大模型的時代

大的擴散模型基於變壓器超過了硬件的進步,導致迫切需要跨多個gpu分發大量的模型的能力。盡管這種日益增長的需求,選擇一個最優策略的最佳實踐仍然缺乏在HPC由於所需知識的廣度,DL和分布式係統。這些困難激發了AI和HPC開發人員探討的關鍵問題:

  • 如何培訓和大型模型的推理效率改進降低成本?
  • 如何適應甚至更大的人工智能模型與有限的資源?
  • 如何讓更多的社區成員容易訪問大型模型和大規模應用程序?

在本課程中,我們研究解決上述問題的努力。首先,不同的並行化是一個重要的工具來提高大型模型訓練的效率和推理。異構內存管理模型可以幫助提高住宿像gpu處理器的能力。此外,用戶友好的DL係統大型模型顯著降低專業背景知識的用戶需求,讓更多的社區成員開始使用更大的模型更有效。我們將為參與者提供一個係統級的開源解決方案,Colossal-AI。可以找到更多的信息https://github.com/hpcaitech/ColossalAI。

理查德·卡爾博士詹姆斯•Demmel Dehmel特聘教授,加州大學伯克利分校;楊你,總統年輕教授,新加坡國立大學

把這個會話中目錄

生成AI大規模使用GAN和穩定的擴散

生成的人工智能是在聚光燈下,不同的應用程序,但也有許多考慮當大規模部署生成模型。本課程將深入了解多個架構和討論優化黑客生成AI需要的複雜的數據管道。

表示將覆蓋:

  • 如何創建和準備培訓規模的數據集在單一的GPU和多GPU環境
  • 如何優化你的培訓和推理的數據管道生產考慮到深度學習模型比較複雜,需要運行。
  • 高質量輸出之間的權衡與訓練時間和資源和處理時間。

葆拉·馬丁內斯,首席執行官和共同創始人,Marvik;首席技術官和聯合創始人羅德裏戈Beceiro Marvik

把這個會話中目錄

Baidu
map