Details
-
Bug
-
Status: Open
-
Major
-
Resolution: Unresolved
-
all, v4.0.1
-
None
-
None
-
kylin 4.0.1
-
Important
-
Newcomer (Easy) - Everyone can do this
Description
问题:
在下压查询中返回的结果 和 cube 查询的结果不一致,下压查询中 columnMetas 的 label 和 name 字段会默认转换成大写!
对应源码类
PushDownRunnerSparkImpl 50行
:
// fill in selected column meta for (int i = 0; i < columnCount; ++i) { int nullable = fieldList.get(i).isNullable() ? 1 : 0; columnMetas.add(new SelectedColumnMeta(false, false, false, false, nullable, true, Integer.MAX_VALUE, fieldList.get(i).getName().toUpperCase(Locale.ROOT), fieldList.get(i).getName().toUpperCase(Locale.ROOT), null, null, null, fieldList.get(i).getPrecision(), fieldList.get(i).getScale(), fieldList.get(i).getDataType(), fieldList.get(i).getDataTypeName(), false, false, false)); }
pushdown query:
cube query:
我认为这个问题应该修复,因为在尝试对接superset时发现,有些此类框架会强校验元数据列的大小写,如果默认进行转换会导致无法适配,且cube query和pushdown query查询的元数据列结果不一致这也是无法接受的。
如果讨论有需要的话,我可以修复他,谢谢~