收集必要的whl文件
在某🐟等平台或者是精密搜索找到以下whl文件
对于3.10 python
triton-2.0.0-cp310-cp310-win_amd64.whl causal_conv1d-1.1.1-cp310-cp310-win_amd64.whl mamba_ssm-1.1.3-cp310-cp310-win_amd64.whl对于3.11 python
FuouM/mamba-ssm-windows-builds at main
可以找到mamba_ssm和causal_conv1d(本人找到的网址仅供分享,如有侵权请联系我)
按照下述进行安装
本人是付费购买了3.10 python的三个文件,然后按照下列提示进行的安装
conda create -n mamba python=3.10 conda activate mamba conda install cudatoolkit==11.8 pip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https://download.pytorch.org/whl/cu118 pip install setuptools==68.2.2 conda install packaging cd 所有编译好的whl文件所在路径 pip install triton-2.0.0-cp310-cp310-win_amd64.whl pip install causal_conv1d-1.1.1-cp310-cp310-win_amd64.whl pip install mamba_ssm-1.1.3-cp310-cp310-win_amd64.whl补丁
虽然教程到此为止了,但是并没有运行成功,于是拷打GPT,进行了如下的一些版本调整
pip install numpy==1.26.4 pip install transformers==4.39.3此时再次检验是否运行成功,即可成功输出
python -c "import mamba_ssm; print('Import successful!')"其他具体的mamba代码可能用到的其他的库的稳定版本如下,这些就按照项目/按需下载了~
pip install timm==0.9.16 pip install thop==0.1.1.post2209072238 pip install yacs==0.1.8