<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      Windows本地安裝LLaMA-Factory

      以下是LLaMA-Factory官方推薦的依賴組件及其版本,如果在linux上安裝建議使用表格中的推薦版本,但是在windows上安裝時(shí),由于各組件提供的windows版本沒有l(wèi)inux版本完備,為了兼容性考慮可節(jié)省時(shí)間(使用發(fā)布的wheel包而不是本地編譯),這里并沒有完全采用官方推薦的版本。

      image

      以下為window本地安裝LLaMA-Factory的詳細(xì)步驟

      1、更新顯卡驅(qū)動(dòng)(推薦使用nvidia顯卡)

      1. 訪問 NVIDIA 驅(qū)動(dòng)程序下載

      2. 選擇你的顯卡型號(hào),下載最新的 Game Ready Driver 或 Studio Driver。

      3. 運(yùn)行安裝程序,選擇“自定義安裝”和“執(zhí)行清潔安裝”,完成后重啟電腦。

      在windows上安裝LLaMA-Factory,需要安裝windows版本的PyTorch 、bitsandbytes 和FlashAttention

      2、 安裝 CUDA Toolkit

      1. 根據(jù)準(zhǔn)備使用的PyTorch 、bitsandbytes 和FlashAttention的版本來決定CUDA的版本,不同版本可能存在不兼容的情況,例如不同版本的bitsandbytes 需要指定版本的PyTorch和CUDA toolkit,并且不同版本的PyTorch對(duì)CUDA toolkit的版本也有要求,因此不要盲目安裝最新版 CUDA。(本文中使用CUDA12.1,https://developer.nvidia.com/cuda-12-1-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_local)

      2. 訪問 CUDA Toolkit 下載,選擇與 PyTorch 匹配的版本(例如 12.1)、系統(tǒng)(Windows)、架構(gòu)(x86_64)和安裝類型(exe [local])。(https://developer.nvidia.com/cuda-toolkit-archive:下載歷史CUDA版本)

      3. 運(yùn)行安裝程序,選擇“自定義”安裝,組件保持默認(rèn)全選即可

      image

      3、安裝Conda 

      LLaMA-Factory的安裝需要安裝大量的python包和其他組件,使用Conda可以有效避免python版本沖突帶來的問題

      1. 下載Conda,Distribution Installers,Miniconda Installers均可(Download Success | Anaconda
      2. 初始化環(huán)境變量
        conda init
      3. 創(chuàng)建conda虛擬環(huán)境,python使用3.10版本
        # 創(chuàng)建 Python 3.10 環(huán)境
        conda create -n llama-factory python=3.10
        
        # 激活環(huán)境
        conda activate llama-factory

      4、安裝Visual Studio Build Tools

      如果安裝了visual studio,則不需要再單獨(dú)安裝

      5、安裝PyTorch

      查看 PyTorch 支持的版本:訪問 PyTorch 官網(wǎng)。安裝與CUDA版本兼容的PyTorch版本(PyTorch Version: 2.5.1+cu121)

      pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

      image

      使用以下腳本驗(yàn)證PyTorch是否成功安裝

      import torch
      
      # 1. 打印PyTorch版本
      print(f"PyTorch Version: {torch.__version__}")
      
      # 2. 打印PyTorch構(gòu)建所用的CUDA版本(這里顯示12.1是正常的)
      print(f"PyTorch CUDA Version: {torch.version.cuda}")
      
      # 3. 最關(guān)鍵的一步:檢查CUDA是否可用
      print(f"CUDA Available: {torch.cuda.is_available()}")
      
      # 4. 如果可用,打印GPU信息
      if torch.cuda.is_available():
          print(f"Number of GPUs: {torch.cuda.device_count()}")
          print(f"Current GPU Name: {torch.cuda.get_device_name(0)}")
          print(f"Current GPU Index: {torch.cuda.current_device()}")
      
          # 5. 做一個(gè)簡單的張量運(yùn)算來測試功能
          x = torch.tensor([1.0, 2.0, 3.0]).cuda()
          y = torch.tensor([4.0, 5.0, 6.0]).cuda()
          z = x + y
          print(f"Tensor computation on GPU: {z}")
          print(f"Tensor device: {z.device}")

      6、安裝bitsandbytes (如果不需要啟用量化LoRA,可跳過此步)

      訪問Release Wheels · jllllll/bitsandbytes-windows-webui · GitHub查看release的wheel文件,根據(jù)安裝的CUDA toolkit版本(12.1)和PyTorch版本(2.5.1+cu121)選擇與之兼容的bitsandbytes版本,下載wheel文件并安裝

      pip install bitsandbytes-0.41.1-py3-none-win_amd64.whl

      使用以下腳本驗(yàn)證bitsandbytes是否成功安裝

      import bitsandbytes as bnb
      # 這個(gè)操作會(huì)觸發(fā)bitsandbytes加載CUDA庫,并顯示其編譯/鏈接的CUDA版本。
      # 通常如果成功導(dǎo)入且無報(bào)錯(cuò),就說明它找到了匹配的CUDA環(huán)境。
      
      # 更直接的方法:創(chuàng)建一個(gè)量化層,看是否報(bào)錯(cuò)
      try:
          # 嘗試創(chuàng)建一個(gè)4bit量化層,這會(huì)用到CUDA kernel
          linear = bnb.nn.Linear4bit(10, 20)
          print("? bitsandbytes 安裝成功,并且CUDA運(yùn)行正常!")
          print(f"   它正在使用與PyTorch相同的CUDA環(huán)境。")
      except Exception as e:
          print(f"? 錯(cuò)誤: {e}")

      7、安裝flash-attention(lldacing/flash-attention-windows-wheel · Hugging Face(如果不需要啟用 FlashAttention-2,可跳過此步)

      首先查看 Releases · kingbri1/flash-attention 上有沒有編輯好的兼容本地CUDA toolkit版本(12.1)和PyTorch版本(2.5.1+cu121)的wheel包,有的話直接下載安裝即可,沒有的話則需要按照以下步驟在本地build wheel包:

      1. clone flash-attention 的源碼到本地,Dao-AILab/flash-attention: Fast and memory-efficient exact attention
      2. 根據(jù)實(shí)際情況(例如CUDA toolkit版本和PyTorch版本)選擇使用的代碼版本,這里使用了 v2.7.0.post2
      3. 使用 lldacing/flash-attention-windows-wheel · Hugging Face 中提供的WindowsWhlBuilder_cuda.bat文件buildwheel包,其中‘CUDA_ARCH’ 參數(shù)要根據(jù)本地顯卡型號(hào)做設(shè)置,可通過以下命令獲取,不同 NVIDIA 顯卡對(duì)應(yīng)不同的數(shù)值(格式為 主版本.次版本,通常簡化為整數(shù),如 8.9 簡寫為 89)
        nvidia-smi --query-gpu=name,compute_cap --format=csv

      image

         4. 在‘Native Tools Command Prompt for Visual Studio’中執(zhí)行腳本,注意需要激活創(chuàng)建的conda虛擬環(huán)境(llama-factory),編譯過程中會(huì)使用虛擬環(huán)境中安裝的CUDA、PyTorch和Python版本

      WindowsWhlBuilder_cuda.bat CUDA_ARCH="89" FORCE_CXX11_ABI=TRUE

      編譯過程根據(jù)機(jī)器性能可能花費(fèi)幾十分鐘到幾小時(shí)不等(本人用了7小時(shí)),編譯好的wheel包,例如‘flash_attn-2.7.0.post2+cu121torch2.5.1cxx11abiFALSE-cp310-cp310-win_amd64.whl’,代表flash-attention的版本是2.7.0.post2,CUDA的版本是12.1,torch的版本是2.5.1,python的版本是3.10

      最后使用編譯好的wheel包安裝flash-attention

      pip install flash_attn-2.7.0.post2+cu121torch2.5.1cxx11abiFALSE-cp310-cp310-win_amd64.whl

      使用以下腳本驗(yàn)證flash-attention是否成功安裝

      import torch
      import flash_attn
      
      print("="*50)
      print("驗(yàn)證環(huán)境配置")
      print("="*50)
      print(f"PyTorch 版本: {torch.__version__}")
      print(f"PyTorch CUDA 版本: {torch.version.cuda}")
      print(f"CUDA 是否可用: {torch.cuda.is_available()}")
      print(f"GPU 設(shè)備: {torch.cuda.get_device_name(0)}")
      
      print(f"\nFlashAttention 版本: {flash_attn.__version__}")
      print("\n? 驗(yàn)證成功!FlashAttention 已安裝并可正常導(dǎo)入。")
      print("   它正在使用您PyTorch環(huán)境中的CUDA 12.1。")
      
      # 可選:進(jìn)行一個(gè)簡單的前向計(jì)算測試(如果擔(dān)心運(yùn)行時(shí)錯(cuò)誤)
      print("\n進(jìn)行簡單計(jì)算測試...")
      try:
          dim = 64
          q = torch.randn(1, 8, 128, dim, device='cuda', dtype=torch.float16)
          k = torch.randn(1, 8, 128, dim, device='cuda', dtype=torch.float16)
          v = torch.randn(1, 8, 128, dim, device='cuda', dtype=torch.float16)
          
          output = flash_attn.flash_attn_func(q, k, v, causal=True)
          print("? 計(jì)算測試通過!FlashAttention CUDA kernel 工作正常。")
      except Exception as e:
          print(f"? 計(jì)算測試失敗: {e}")

       7、安裝LLaMA-Factory

      Clone LLama-Factory源碼(hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)),根據(jù)提供的文檔安裝即可(安裝 - LLaMA Factory),核心安裝命令

      pip install -e ".[torch,metrics]"

      啟動(dòng)webui

      llamafactory-cli webui

      訪問webui:http://localhost:7860/,大功告成!!!!!!!!

      image

       

      posted @ 2025-09-04 00:49  TigerLu  閱讀(458)  評(píng)論(0)    收藏  舉報(bào)
      主站蜘蛛池模板: 在线天堂最新版资源| 日本久久高清一区二区三区毛片| 国产精品免费久久久免费| 中日韩黄色基地一二三区| 猫咪网网站免费观看| 黑森林福利视频导航| 日本边添边摸边做边爱| 免费无码VA一区二区三区| 石台县| 亚洲 欧美 中文 日韩aⅴ| 黑人大荫道bbwbbb高潮潮喷| 国产一级小视频| 美女一区二区三区在线观看视频| 久久精品激情亚洲一二区| 午夜爽爽爽男女免费观看影院 | 国产成人精品亚洲资源| 国产一区二区三区不卡视频| AV无码免费不卡在线观看| 欧美日韩国产亚洲沙发| 日韩久久久久久中文人妻| a∨变态另类天堂无码专区| 国产一二三五区不在卡| 国产中文字幕一区二区| 91网站在线看| 久久精品蜜芽亚洲国产AV| 91麻豆精品国产91久| 久久天天躁狠狠躁夜夜躁2o2o | 亚洲一区二区精品偷拍| 成人福利国产午夜AV免费不卡在线| 久久精品无码一区二区小草| 冀州市| 久久无码人妻精品一区二区三区 | 久久香蕉国产线看观看猫咪av | 亚洲少妇人妻无码视频| 国产精品午夜无码AV天美传媒| 国产成人精品久久一区二| 亚洲高清免费在线观看| 日韩丝袜欧美人妻制服| 国产成人午夜精品影院| 久久精品伊人狠狠大香网| 国产精品成人中文字幕|