Apache Phoenix UDF не работает на стороне сервера - PullRequest
0 голосов
/ 18 мая 2018

1 Я создал банку с пользовательской функцией UDF и скопировал банку в dynamic.jar.dir , поэтому, когда я использую свою функцию UDF как часть SELECT, я получаю результат безпроблемы.

2 Но когда функция является частью предложения WHERE, я получаю ошибку, что класс моей пользовательской функции не найден.

select PK FROM "my.custom.view" where MY_FUN(ARRAY["COLF"."COL1"], 'SOMEPARAM')  limit 1;

Caused by: org.apache.hadoop.hbase.DoNotRetryIOException: BooleanExpressionFilter failed during reading: java.lang.ClassNotFoundException: com.myCompany.phoenix.MyCustomFunction
    at org.apache.phoenix.util.ServerUtil.createIOException(ServerUtil.java:96)
    at org.apache.phoenix.util.ServerUtil.throwIOException(ServerUtil.java:62)
    at org.apache.phoenix.filter.BooleanExpressionFilter.readFields(BooleanExpressionFilter.java:109)
    at org.apache.phoenix.filter.SingleKeyValueComparisonFilter.readFields(SingleKeyValueComparisonFilter.java:133)
    at org.apache.hadoop.hbase.util.Writables.getWritable(Writables.java:131)
    at org.apache.hadoop.hbase.util.Writables.getWritable(Writables.java:101)
    at org.apache.phoenix.filter.SingleCQKeyValueComparisonFilter.parseFrom(SingleCQKeyValueComparisonFilter.java:50)
    ... 16 more

base-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://localhost:57000/user/hbase</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>localhost</value>
    </property>
    <property>
        <name>hbase.zookeeper.property.clientPort</name>
        <value>21081</value>
    </property>

    <property>
        <name>hbase.client.keyvalue.maxsize</name>
        <value>0</value>
    </property>

    <!-- SEP is basically replication, so enable it -->
    <property>
        <name>hbase.replication</name>
        <value>true</value>
    </property>

    <property>
        <name>hbase.mapreduce.bulkload.max.hfiles.perRegion.perFamily</name>
        <value>128</value>
    </property>

    <property>
        <name>hbase.fs.tmp.dir</name>
        <value>/tmp/hbase</value>
    </property>

<property>
    <name>phoenix.functions.allowUserDefinedFunctions</name>
    <value>true</value>
  </property>
  <property>
    <name>hbase.dynamic.jars.dir</name>
    <value>${hbase.rootdir}/lib/</value>
  </property>

<property>
  <name>fs.hdfs.impl</name>
  <value>org.apache.hadoop.hdfs.DistributedFileSystem</value>
</property>

</configuration>

Ручное добавление банки с:

hdfs dfs -copyFromLocal -f /my.jar hdfs:///user/hbase/lib/my.jar

Для создания функции с использованием:

CREATE FUNCTION MY_FUN(BINARY[], VARCHAR) RETURNS BOOLEAN as 'com.myCompany.phoenix.MyCustomFunction' using jar 'hdfs://localhost:57000/user/hbase/lib/my.jar';

1 Ответ

0 голосов
/ 11 сентября 2018

Я столкнулся с чем-то похожим, когда обновился до Феникса 5.0 с 4.7.Я получил исключение, заявив, что теперь мне нужно поместить свой UDF .jar в / apps / hbase / data / lib из-за проблем с разрешениями.В старой среде мне удавалось использовать каталог / apps / hbase / lib.Может быть, это происходит и с вами, но это не предупреждает вас о новом изменении пути.

...