摘要:
OMG-LLaVA學(xué)習(xí)記錄 模型跑通 環(huán)境配置 我們先按照項(xiàng)目文檔要求創(chuàng)建一個(gè)Python環(huán)境并且激活 conda create -n omg-llava python==3.10 source activate omg-llava 接著我們來安裝torch # install pytorch wi 閱讀全文
posted @ 2025-10-12 23:59
栗悟飯與龜功気波
閱讀(19)
評論(0)
推薦(0)
摘要:
OMG-LLaVA學(xué)習(xí)記錄 跑代碼前置準(zhǔn)備(AutoDL平臺) 這里我選擇了一個(gè)顯存32GB的GPU,因?yàn)槲业碾娔X是8GB,加載模型顯存直接爆了(即使加上了4-bit量化)。然后用了一個(gè)24GB的GPU,加載模型時(shí)也爆了,所以才用了一個(gè)32GB的GPU,但是最后實(shí)測運(yùn)行時(shí)顯存占用實(shí)際為15GB左右, 閱讀全文
posted @ 2025-10-12 23:58
栗悟飯與龜功気波
閱讀(11)
評論(0)
推薦(0)
摘要:
OMG-LLaVA論文閱讀筆記 Part1. 摘要-Abstract Abstract闡述了現(xiàn)有通用模型的現(xiàn)狀和問題 Current universal segmentation methods demonstrate strong capabilities in pixellevel image 閱讀全文
posted @ 2025-10-12 23:58
栗悟飯與龜功気波
閱讀(18)
評論(0)
推薦(0)
摘要:
李宏毅ML_2021Spring_HW1 寫在前面 可能會有一些小錯(cuò)誤,會持續(xù)檢查和更正的 題目如下 Step1. 導(dǎo)入相關(guān)庫 # 導(dǎo)入PyTorch相關(guān)庫 import torch import torch.nn as nn from torch.utils.data import Dataset 閱讀全文
posted @ 2025-10-12 17:55
栗悟飯與龜功気波
閱讀(7)
評論(0)
推薦(0)
摘要:
AtCoder Beginner Contest 427(A~E) 寫在前面 賽時(shí) \(A — E\) \(A\) : 模擬 \(B\) : 模擬,暴力,前綴和 \(C\) : \(dfs\)/狀態(tài)壓縮,二分圖概念,思維 \(D\) : 博弈論(\(P/N\)態(tài)) \(E\) : 思維,\(BFS\ 閱讀全文
posted @ 2025-10-12 10:40
栗悟飯與龜功気波
閱讀(31)
評論(0)
推薦(0)

浙公網(wǎng)安備 33010602011771號