Skip to content

flash_attention 的g_enable_* 属性在最新的paddlepaddle dev 版本中已经移除 ,请解决此冲突 #121

@yuchunliu-metax

Description

@yuchunliu-metax

问题描述:

下面代码调用了 flash_attention的g_enable*属性,这个接口在最新的paddlepaddle dev分支已经移除,导致运行时报错。

original_settings = (flash_module.g_enable_math, flash_module.g_enable_flash, flash_module.g_enable_mem_efficient)

问题验证:

  • 测试代码:
import paddle
import paddle.nn.functional as F

try:
    flash_attention = F.flash_attention
    print(flash_attention.g_enable_math)
except AttributeError as e:
    print(f"AttributeError: {e}")

if 'flash_attention' in locals():
    print("\nflash_attention的所有方法和属性:")
    for attr in dir(flash_attention):
        print(attr)
  • 验证一:

使用paddlepaddle 3.0.0.dev.20250825,有g_enable*属性

Image
  • 验证二:

使用paddlepaddle 3.0.0.dev.20251022,无g_enable*属性

Image

结论

paddlecfd 代码中 flash_attention的g_enable*属性已经在paddlepaddle 3.0.0.dev.20251022版本以及后面的版本中移除,请解决此冲突。

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions