对此的查询
Information_schema.files.
当它包含时,表返回了任何结果订购
条款。(错误# 26877788)在重启期间,
dblqh.
从一个或多个重做日志文件中加载它管理的每个重做日志部分的元数据。由于每个文件的元数据容量有限,必须咨询的文件数量取决于重做日志部分的大小。这些文件按顺序打开、读取和关闭,但是一个文件的关闭与下一个文件的打开同时发生。在文件关闭缓慢的情况下,每个重做日志部分可能会并发打开超过4个文件;由于这些文件是使用
OM_WRITE_BUFFER
选项,在这种情况下,每个部分分配超过4个写缓冲区块。写缓冲池不是无限制的;如果所有重做日志部分处于类似的状态,则池耗尽,导致数据节点关闭。这个问题通过避免使用
OM_WRITE_BUFFER
在重新加载元数据期间,使每个日志文件部分的任何超过4个重做日志文件的瞬态打开不再导致数据节点故障。(错误# 25965370)后
截断表
在一个NDB
表,它AUTO_INCREMENT
未在未执行二进制日志记录的SQL节点上重置ID。(错误# 14845851)在某些情况下
Ndb
从API节点并行使用对象,从块参考中提取的块号dblqh.
和a是一样的吗SUMA
块,即使请求来自API节点。由于这种模糊性,dblqh.
误入API节点的请求以获取来自A的请求SUMA
阻止并失败。这通过检查节点ID在检查块号之前来修复。(bug#88441,bug#27130570)当重复的Weedout算法用于评估半素素时,结果丢失了行。(bug#88117,bug#26984919)
参考文献:另见:bug#87992,bug#26926666。
松散扫描中使用的表可以用作推入连接查询的子表,可能导致不正确的结果。(Bug #87992, Bug #26926666)
在查询计划中代表物化半素时,MySQL优化器插入额外
QEP_TAB
和join_tab.
对象来表示对物化子查询结果的访问。join下推分析程序没有为它们正确地设置内部数据结构,反而使它们未初始化。这意味着以后使用任何引用了已物化的半连接的项对象都会访问一个初始化的对象tableno
列tableno
BitMask可能指的是超出其结束的点,导致SQL节点的计划外关闭。(bug#87971,bug#26919289)当数据节点被配置为将线程锁定到cpu时,它在启动时失败锁定tid失败。
这是修复前一个问题的副作用,该问题禁用了基于可用版本的CPU锁定
glibc.
。具体的glibc.
只有在响应内部NDB API调用(Ndb_UnlockCPU ()
)不被数据节点使用(并且只能通过内部API调用访问)。当前的修复为数据节点启用CPU锁定,仅在受影响时对相关API调用禁用CPU锁定glibc.
使用版本。(Bug #87683, Bug #26758939)参考文献:这个问题是:Bug #86892, Bug #26378589的回归。
的
NDBFS
块OM_SYNC
标志的目的是确保用于给定文件的所有FSWRITEREQ信号是同步的,但被不支持的平台忽略o_sync.
,这意味着此功能在这些平台上没有正常行为。现在同步标志用于不支持的那些平台上o_sync.
。(bug#76975,bug#21049554)