1作者: ssnape7 个月前
我们正在使用 Dagster 运行 dbt,并在 8 个月内增长到大约 300 个模型。编译时间已经增加到 30 秒以上,我预见到问题的严重性。 如果我们按照同样的轨迹发展到 3000 个模型(我们将在 2-3 年内达到),那么编译时间将达到 5 分钟以上。 有没有其他人遇到过 dbt 的这种规模瓶颈?在模型数量达到多少时,编译时间变得难以忍受?很想听听大家的经验之谈,或者其他人是否会觉得更快的替代方案有用。
1作者: WarOnPrivacy7 个月前
静态数据(例如存储中的数据)通常以字节为单位进行可靠计量。 但动态数据在大多数情况下(例如 ISP)以比特为单位计量,在少数情况下(例如某些网络设备)以字节为单位计量。 对于动态数据,使用字节似乎与广泛接受的标准有所不同。 也许这其中有充分的理由。为什么在通常期望使用比特的地方会选择字节呢?(特别是指 TrueNAS。)