<em id="5xgjh"></em>
    <nav id="5xgjh"><code id="5xgjh"></code></nav>
  1. <sub id="5xgjh"><address id="5xgjh"></address></sub>
    <form id="5xgjh"></form>
    <sub id="5xgjh"><address id="5xgjh"></address></sub>
      <sub id="5xgjh"></sub>
    1. <nav id="5xgjh"></nav>

        首頁 > 互聯網 > 正文
        分享到:

        Meta 發布 Megabyte AI 模型抗衡 Transformer:解決后者已知問題

        時間:2023-05-31 21:59:41 來源: 評論:0 點擊:0
          5 月 31 日消息:近日 Meta 團隊開發了一款名為 Megabyte 的 AI 模型以抗衡 Transformer,據稱 Megabyte 解決了 Transformer 模型所面臨的問題,并且在速度上提升了 40%。

          目前 Transformer 在自然語言處理等領域非常流行,但由于其序列數據的處理方式是逐步進行的,無法并行化處理,因此訓練速度較慢; 難以處理長序列,因為其在反向傳播過程中,梯度很容易消失或爆炸;此外,由于需要在每一步保留歷史信息,內存消耗較大。

          而 Megabyte 模型將輸入和輸出序列劃分為 patch,而不是單個的 token。這種架構使得對大多數任務而言字節級別的預測相對容易,例如根據前幾個字符預測完成的單詞等。這意味著在大型網絡中可以精簡字符以提升效率,并且內部預測可以使用更小的模型進行。Megabyte 模型的這種方法解決了當今 AI 模型所面臨的訓練速度、可靠性及硬件占用比挑戰。

          此外,在計算效率方面,相比于等大的 Transformer 和 Linear Transformer,Megabyte 模型在固定模型大小和序列長度范圍內使用更少的 token。因此相對于 Transformer,Megabyte 模型可以在相同的計算成本下訓練內容更豐富、體積更大、性能更好的模型。

        美女精品一区二区