Triton是一种编程语言和编译器,用于高效编写定制的深度学习原语。其目标是提供一个开源环境,让开发者能够高效开发代码,同时兼具比其他现有领域专用语言DSL(domain-specific language)更强的灵活性。
Triton-Ascend面向昇腾平台,旨在让Triton代码能够在昇腾硬件上高效运行。
本文档提供了2种安装方式以满足不同用户的需求。您可以根据自己的具体需求选择最合适的安装方法。
- Python wheel安装: 通过 Python Wheel 安装包进行安装是最快捷、最简便的方式,适用于希望快速部署 Triton-Ascend 的用户。
- 源代码编译安装: 如果您需要对 triton-ascend 进行开发或自定义修改,则应采用源代码编译安装的方法。这种方式允许您根据项目需求调整源代码,并编译安装定制化的 triton-ascend 版本。
当前Triton-Ascend要求的Python版本为:py3.9-py3.11。
异构计算架构CANN(Compute Architecture for Neural Networks)是昇腾针对AI场景推出的异构计算架构, 向上支持多种AI框架,包括MindSpore、PyTorch、TensorFlow等,向下服务AI处理器与编程,发挥承上启下的关键作用,是提升昇腾AI处理器计算效率的关键平 台。
您可以访问昇腾社区官网,根据其提供的软件安装指引完成 CANN 的安装配置。
在安装过程中,请选择 CANN 版本 8.2.RC1.alpha002,并根据实际环境指定CPU架构(AArch64/X86_64),NPU硬件型号对应的软件包。
建议下载安装:
软件类型 | 软件包说明 | 软件包名称 |
---|---|---|
Toolkit | CANN开发套件包 | Ascend-cann-toolkit_version_linux-arch.run |
Kernels | CANN二进制算子包 | Ascend-cann-kernels-chip_type_version_linux-arch.run |
社区下载链接:
https://www.hiascend.com/developer/download/community/result?module=cann
社区安装指引链接:
https://www.hiascend.com/document/detail/zh/CANNCommunityEdition/82RC1alpha002/softwareinst/instg/instg_0001.html?Mode=PmIns&OS=Ubuntu&Software=cannToolKit
该文档提供了完整的安装流程说明与依赖项配置建议,适用于需要全面部署 CANN 环境的用户。
CANN安装完成后,需要配置环境变量才能生效。请用户根据set_env.sh的实际路径执行如下命令。
source ${HOME}/Ascend/ascend-toolkit/set_env.sh
- 注:如果用户未指定安装路径,则软件会安装到默认路径下,默认安装路径如下。root用户:“/usr/local/Ascend”,非root用户:“${HOME}/Ascend”,${HOME}为当前用户目录。 上述环境变量配置只在当前窗口生效,用户可以按需将以上命令写入环境变量配置文件(如.bashrc文件)。
pip install attrs==24.2.0 numpy==1.26.4 scipy==1.13.1 decorator==5.1.1 psutil==6.0.0 pytest==8.3.2 pytest-xdist==3.6.1 pyyaml
当前配套的torch_npu版本为2.6.0rc1版本。
pip install torch_npu==2.6.0rc1
通过 Python Wheel 安装包安装 Triton-Ascend 是最快捷、最简便的方式。使用下面命令安装:
pip install triton-ascend
运行Triton示例
# 设置CANN环境变量(以root用户默认安装路径`/usr/local/Ascend`为例)
source /usr/local/Ascend/ascend-toolkit/set_env.sh
# 运行tutorials示例:
python3 ./triton-ascend/ascend/examples/tutorials/01-vector-add.py
如果您需要对 triton-ascend 进行开发或自定义修改,则应采用源代码编译安装的方法。这种方式允许您根据项目需求调整源代码,并编译安装定制化的 triton-ascend 版本。
详细安装手册参见Installation.md
- GCC >= 9.4.0
- GLIBC >= 2.27
Python支持版本为:py3.9-py3.11, torch及torch_npu支持版本为:2.6.0。
安装zlib1g-dev/lld/clang,可选安装ccache包用于加速构建。
- 推荐版本 clang >= 15
- 推荐版本 lld >= 15
以ubuntu系统为例:
apt update
apt install zlib1g-dev clang-15 lld-15
apt install ccache # optional
pip install ninja cmake wheel pybind11 # build-time dependencies
pip install attrs==24.2.0 numpy==1.26.4 scipy==1.13.1 decorator==5.1.1 psutil==6.0.0 pytest==8.3.2 pytest-xdist==3.6.1 pyyaml torch==2.6.0 torch-npu==2.6.0rc1 # torch dependencies
Triton 使用 LLVM20 为 GPU 和 CPU 生成代码。同样,昇腾的毕昇编译器也依赖 LLVM 生成 NPU 代码,因此需要编译 LLVM 源码才能使用。请关注依赖的 LLVM 特定版本。
-
git checkout
检出指定版本的LLVM.git clone --no-checkout https://github.com/llvm/llvm-project.git cd llvm-project git checkout b5cc222d7429fe6f18c787f633d5262fac2e676f
-
clang构建安装LLVM
- 步骤1:推荐使用clang安装LLVM,环境上请安装clang、lld,并指定版本(推荐版本clang>=15,lld>=15),
如未安装,请按下面指令安装clang、lld、ccache:
如果环境上有多个版本的clang,请设置clang为当前安装的版本clang-15,如果clang只有15版本,或已指定15版本则跳过该步骤:
apt-get install -y clang-15 lld-15 ccache
update-alternatives --install /usr/bin/clang clang /usr/bin/clang-15 20; \ update-alternatives --install /usr/bin/clang++ clang++ /usr/bin/clang++-15 20; \ update-alternatives --install /usr/bin/lld lld /usr/bin/lld-15 20
- 步骤2:设置环境变量 LLVM_INSTALL_PREFIX 为您的目标安装路径:
export LLVM_INSTALL_PREFIX=/path/to/llvm-install
- 步骤3:执行以下命令进行构建和安装LLVM:
cd $HOME/llvm-project # your clone of LLVM. mkdir build cd build cmake ../llvm \ -G Ninja \ -DCMAKE_BUILD_TYPE=Release \ -DLLVM_ENABLE_ASSERTIONS=ON \ -DLLVM_ENABLE_PROJECTS="mlir;llvm;lld" \ -DLLVM_TARGETS_TO_BUILD="host;NVPTX;AMDGPU" \ -DCMAKE_INSTALL_PREFIX=${LLVM_INSTALL_PREFIX} \ -DCMAKE_C_COMPILER=clang \ -DCMAKE_CXX_COMPILER=clang++ ninja install
- GCC构建安装LLVM
- 步骤1:推荐使用clang,如果只能使用GCC安装,请注意[注1] [注2]。设置环境变量 LLVM_INSTALL_PREFIX 为您的目标安装路径:
export LLVM_INSTALL_PREFIX=/path/to/llvm-install
- 步骤2:执行以下命令进行构建和安装:
cd $HOME/llvm-project # your clone of LLVM. mkdir build cd build cmake -G Ninja ../llvm \ -DLLVM_CCACHE_BUILD=OFF \ -DCMAKE_BUILD_TYPE=Release \ -DLLVM_ENABLE_ASSERTIONS=ON \ -DLLVM_ENABLE_PROJECTS="mlir;llvm" \ -DLLVM_TARGETS_TO_BUILD="host;NVPTX;AMDGPU" \ -DCMAKE_INSTALL_PREFIX=${LLVM_INSTALL_PREFIX} ninja install
- 注1:若在编译时出现错误
ld.lld: error: undefined symbol
,可在步骤2中加入设置-DLLVM_ENABLE_LLD=ON
。 - 注2:若环境上ccache已安装且正常运行,可设置
-DLLVM_CCACHE_BUILD=ON
加速构建, 否则请勿开启。
git clone https://gitee.com/ascend/triton-ascend.git --recurse-submodules --shallow-submodules
- 源码安装
- 步骤1:请确认已设置[基于LLVM构建]章节中,LLVM安装的目标路径 ${LLVM_INSTALL_PREFIX}
- 步骤2:请确认已安装clang>=15,lld>=15,ccache
cd triton-ascend/ LLVM_SYSPATH=${LLVM_INSTALL_PREFIX} \ TRITON_PLUGIN_DIRS=./ascend \ TRITON_BUILD_WITH_CCACHE=true \ TRITON_BUILD_WITH_CLANG_LLD=true \ TRITON_BUILD_PROTON=OFF \ TRITON_WHEEL_NAME="triton_ascend" \ TRITON_APPEND_CMAKE_ARGS="-DTRITON_BUILD_UT=OFF" \ python3 setup.py install
- 注3:推荐GCC >= 9.4.0,如果GCC < 9.4,可能报错 “ld.lld: error: unable to find library -lstdc++fs”,说明链接器无法找到 stdc++fs 库。 该库用于支持 GCC 9 之前版本的文件系统特性。此时需要手动把 CMake 文件中相关代码片段的注释打开:
- triton-ascend/CMakeLists.txt
打开注释后重新构建项目即可解决该问题。
if (NOT WIN32 AND NOT APPLE) link_libraries(stdc++fs) endif()
- 运行Triton示例
# 设置CANN环境变量(以root用户默认安装路径`/usr/local/Ascend`为例) source /usr/local/Ascend/ascend-toolkit/set_env.sh # 运行tutorials示例: python3 ./triton-ascend/ascend/examples/tutorials/01-vector-add.py
环境变量配置参考下表:
环境变量 | 默认值 | 功能说明 | 配置说明 | 变更声明 |
---|---|---|---|---|
TRITON_DEBUG | 0 或未设置 | 启用 Triton 的调试输出功能,用于在运行时打印详细的调试信息。这对于排查编译或执行阶段的问题非常有用。 当设置为 1 时,Triton 会输出更多关于编译过程、内核生成和执行的信息。 某些实现中可能支持更细粒度的调试级别(如 2, 3 等),具体取决于 Triton 的版本和实现。 | 0:不启用DEBUG 1:启用DEBUG | |
TRITON_ALWAYS_COMPILE | 0 或未设置 | 控制 Triton 是否每次运行都强制重新编译内核,而不是使用已有的缓存版本。 默认情况下,Triton 会对已经编译过的内核进行缓存(基于参数和配置),以提高性能。 设置为 1 后,Triton 将忽略缓存并每次都重新编译内核,这在调试或测试新编译器特性时非常有用。 | 0:不启用 1:每次运行都重新编译所有内核 | |
MLIR_ENABLE_DUMP | 0 或未设置 | 在每次 MLIR 优化前转储所有内核的 IR。使用 MLIR_ENABLE_DUMP=kernelName 可以只转储特定内核的IR。 |
0:不转储 1:转储所有内核IR kernelName:转储特定内核IR | Triton 缓存可能干扰转储。如果 MLIR_ENABLE_DUMP=1 不生效,可尝试清理 Triton 缓存: rm -r ~/.triton/cache/* |
LLVM_IR_ENABLE_DUMP | 0 或未设置 | 在每次 LLVM IR 优化前转储 IR。 | 0:不转储 1:转储IR | |
TRITON_REPRODUCER_PATH | 未设置 | 在每个 MLIR 编译阶段前生成 MLIR 复现文件。如果某阶段失败,<reproducer_path> 将保存失败前的 MLIR 状态。 |
<reproducer_path>:保存路径 | |
TRITON_INTERPRET | 0 或未设置 | 使用 Triton 解释器而非 GPU 运行,支持在核函数代码中插入 Python 断点 | 0:不支持断点 1:支持断点 | |
TRITON_ENABLE_LLVM_DEBUG | 0 或未设置 | 向LLVM 传递-debug 参数,输出大量调试信息。若信息过多,可使用TRITON_LLVM_DEBUG_ONLY 限制输出范围。 |
0:不传递 1:传递 | 另一种减少输出干扰的方法是:先设置 LLVM_IR_ENABLE_DUMP=1 运行程序,提取目标LLVM优化通道前的中间表示(IR),然后单独运行LLVM的opt 工具,此时可通过命令行添加-debug-only=foo 参数来限定调试范围。 |
TRITON_LLVM_DEBUG_ONLY | 未设置 | 功能等同于 LLVM 的-debug-only 命令行选项。该参数可将 LLVM 调试输出限定到特定的优化通道或组件名称(这些名称通过 LLVM 和 Triton 中的#define DEBUG_TYPE 宏定义),从而有效减少调试信息的冗余输出。用户可指定一个或多个逗号分隔的值,例如:TRITON_LLVM_DEBUG_ONLY="tritongpu-remove-layout-conversions 或TRITON_LLVM_DEBUG_ONLY="tritongpu-remove-layout-conversions,regalloc" 。 |
:通道或组件名称 | |
USE_IR_LOC | 0 或未设置 | 控制是否在生成的中间表示(IR)中包含位置信息(如文件名、行号等)。这些信息对调试很有帮助,但可能会增加生成的IR的大小。设置为1,会重新解析中间表示(IR),将位置信息映射为具有特定扩展名的IR文件行号(而非Python源文件行号)。这能建立从IR到LLVM IR/PTX的直接映射关系。配合性能分析工具使用时,可实现对IR指令的细粒度性能剖析。 | 0:不包含位置信息 1:包含位置信息 | |
TRITON_PRINT_AUTOTUNING | 0 或未设置 | 在自动调优完成后,输出每个内核的最佳配置及总耗时。 | 0:不输出 1:输出 | |
DISABLE_LLVM_OPT | 0 或未设置 | 当设置为 1 时,可以禁用 LLVM 编译过程中的优化步骤(make_llir和make_ptx的LLVM优化)。当设置为字符串,解析为要禁用的LLVM优化标志列表。例如使用DISABLE_LLVM_OPT="disable-lsr" 可禁用循环强度优化(该优化在某些存在寄存器压力的内核中可能导致高达10%的性能波动)。 |
0:LLVM 的优化是启用状态 1:禁用 LLVM 编译过程中的优化步骤(make_llir和make_ptx的LLVM优化) :"disable-lsr":禁用循环强度优化 | |
TRITON_ALWAYS_COMPILE | 0 或未设置 | 强制重新编译内核(忽略缓存命中)。 | 0:不强制 1:强制 | |
MLIR_ENABLE_TIMING | 0 或未设置 | 启用或禁用 MLIR 编译过程中的时间统计功能。 | 0:不启用 1:启用 | |
LLVM_ENABLE_TIMING | 0 或未设置 | 启用或禁用 LLVM 编译过程中的时间统计功能。 | 0:不启用 1:启用 | |
TRITON_DEFAULT_FP_FUSION | 1 启用 | 控制是否默认启用浮点运算融合优化,覆盖默认的浮点运算融合行为(如mul+add->fma)。 | 0:不启用 1:启用 | |
MLIR_ENABLE_REMARK | 0 或未设置 | 启用MLIR 编译过程中的备注信息输出,包括以备注形式输出的性能警告。 | 0:不启用 1:启用 | |
TRITON_KERNEL_DUMP | 0 或未设置 | 启用或禁用 Triton 内核的转储功能,当启用时,Triton 会将生成的内核代码(各编译阶段IR及最终PTX)保存到指定目录。 | 0:不启用 1:启用 | |
TRITON_DUMP_DIR | 当前工作目录或未设置 | 指定 Triton 内核转储文件的保存目录。当TRITON_KERNEL_DUMP=1 时保存IR和PTX的目录。 |
"path":保存路径 | |
TRITON_KERNEL_OVERRIDE | 0 或未设置 | 启用或禁用 Triton 内核覆盖功能,允许在每个编译阶段开始时用用户指定的外部文件(IR/PTX等)覆盖默认生成的内核代码。 | 0:不启用 1:启用 | |
TRITON_OVERRIDE_DIR | 当前工作目录或未设置 | 指定 Triton 内核覆盖文件的查找目录。当TRITON_KERNEL_OVERRIDE=1 时加载IR/PTX文件的目录。 |
"path":保存路径 | |
TRITON_DEVICE_PRINT | 0 或未设置 | 启用tl.device_print 功能,当设置为1 或者 true 时(TRUE 将被转换为 true )。 重要说明:该功能使用GM缓冲区(其指针被传递给内核)。当前由于未知原因,要求内核标量参数总数(包括隐藏参数gridx, gridy, gridz )必须为偶数。例如内核参数为kernel(ptr0, ptr1, ptr2, BLOCKSIZE: tl.constexpr) 时,前3个指针参数(64位对齐)加上3个隐藏参数(32位对齐)后,需额外添加1个标量参数使总数变为偶数。此限制将在修复该bug后移除。 |
0:不启动 1:启用tl.device_print 功能 |
每个线程的GM缓冲区最大为16KB,超限内容将被丢弃。该值目前固定,后续将通过环境变量调整。 |
TRITON_BENCH_METHOD | 未设置 | 使用昇腾NPU时,将testing.py 中的do_bench 切换为do_bench_npu (需配合INDUCTOR_ASCEND_AGGRESSIVE_AUTOTUNE = 1 使用)。设为default 时即使NPU可用,仍调用原函数。 |
"npu":切换为do_bench_npu |
|
TRITON_ASCEND_COMPILE_SPEED_OPT | 0 或未设置 | 控制JIT编译器在发现内核编译失败后是否跳过后续编译阶段。设为1 跳过(默认0 继续尝试)。 |
0:继续尝试 1:跳过 | |
TRITON_REGISTER_TENSOR_MSPROF | 0 或未设置 | 控制使用profiler时是否在运行时向msprof注册tensor信息。因为运行时解析并注册tensor信息会导致运行时开销增大,所以默认关闭。 | 0:不注册 1:注册 |
环境配置完成后,可通过教程脚本快速上手,教程路径:triton-ascend/docs/tutorials_src
,解释了每一个示例代码的详细执行步骤。
可执行示例代码路径:triton-ascend/ascend/examples/tutorials
cd triton-ascend/ascend/examples/tutorials
# take 01-vector-add.py for example
python3 01-vector-add.py
参考triton社区提供的调试方法进行调试,官方链接:https://triton-lang.org/main/programming-guide/chapter-3/debugging.html
- 已支持:Atlas 800T/I A2产品
- 开发中:Atlas 800T/I A3产品
Triton Op Type | Triton Op |
---|---|
Creation Ops | arange |
cat | |
full | |
zeros | |
zeros_like | |
cast | |
Shape Manipulation Ops | broadcast |
broadcast_to | |
expand_dims | |
interleave | |
join | |
permute | |
ravel | |
reshape | |
split | |
trans | |
view | |
Linear Algebra Ops | dot |
Memory/Pointer Ops | load |
store | |
make_block_ptr | |
advance | |
Indexing Ops | flip |
where | |
swizzle2d | |
Math Ops | add |
sub | |
mul | |
div | |
floordiv(//) | |
mod | |
neg | |
invert(!) | |
and(&) | |
or(|) | |
xor(^) | |
not(~) | |
lshift(<<) | |
rshift(>>) | |
gt | |
ge | |
lt | |
le | |
eq | |
ne | |
logical and | |
logical or | |
abs | |
cdiv | |
ceil | |
clamp | |
cos | |
div_rn | |
erf | |
exp | |
exp2 | |
fdiv | |
floor | |
fma | |
log | |
log2 | |
maximum | |
minimum | |
rsqrt | |
sigmoid | |
sin | |
softmax | |
sqrt | |
sqrt_rn | |
umulhi | |
Reduction Ops | argmax |
argmin | |
max | |
min | |
reduce | |
sum | |
xor_sum | |
Scan/Sort Ops | gather |
cumsum | |
cumprod | |
Atomic Ops | atomic_add |
atomic_max | |
atomic_min | |
Iterators | range |
static_range | |
Compiler Hint Ops | debug_barrier |
Debug Ops | static_print |
static_assert | |
device_print |
各op详细支持度及使用约束参见Python_API.md
- abs
- add
- bitwise_and
- bitwise_not
- bitwise_or
- cos
- div
- eq
- exp
- ge
- gt
- isinf
- rsub
- le
- lt
- mul
- ne
- neg
- reciprocal
- relu
- rsqrt
- sigmoid
- silu
- sin
- sub
- tanh
- triu
其他开源算子仓(如vllm、sglang等)正在逐步支持中,敬请期待。