文章目录
每一个next()调用都会为每行数据生成一个单独RPC请求,即使使用next(int nbRows)方法,也是如此,因为该方法仅仅是在客户端循环地调用next()方法。很显然,当单元格数据较小时,这样做的性能不会很好。因此,如果一次RPC请求可以获取多行数据,这样更会有意义。这样的方法可以由扫描器缓存实现,默认情况下,这个缓存是关闭的。
可以在两个层面上打开它:在表的层面,这个表所有扫描实例的缓存都会生效;也可以在扫描层面,这样便只会影响当前的扫描实例。用户可以使用以下的HTable方法设置表级的扫描器缓存:
void setScannerCaching(int scannerCaching) int getScannerCaching()
|
用户可以修改整个HBase集群的默认值1。只要把下面的配置项添加到hbase-site.xml中即可:
<property> <name>hbase.client.scanner.caching</name> <value>10</value> </property>
|
这样所有的Scan实例的扫描器缓存大小就设置为10了。用户还可以从表或扫描两个层面覆盖默认配置,但是需要明确这样做的目的。
setScannerCaching()可以设置缓存大小,getScannerCaching()可以返回当前缓存大小的值。每次用户调用getScanner(scan)之后,API都会把设定值配置到扫描实例中——除非用户使用了扫描层面的配置并覆盖了表层面的配置,扫描层面的配置优先级最高。可以使用下列Scan类方法设置扫描级的缓存:
void setCaching(int caching) int getCaching()
|
这两个方法的作用和表层面方法一样,能控制RPC调用取回的行数。两种next()方法都回受这些配置影响。
用户需要为少量的RPC请求次数和客户端以及服务端的内存消耗找到平衡点。很多时候,将扫描器缓存设置的比较提高扫描的性能,不过设得太高就会产生不良影响:每次next()调用将会占用更长的时间,因为要获取更多的文件并传输到客户端,如果返回给客户端的数据超出了其堆的大小,程序就会终止并抛出OutOfMemoryException异常。
当传输和处理数据的时间超过配置的扫描器租约超时时间时,用户将会收到一个ScanerTimeoutException形式抛出的租约过期错误。
下边是使用扫描器时超时示例代码:
import java.io.IOException;
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HConstants; import org.apache.hadoop.hbase.client.HTable; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.Scan;
public class HBaseResultScanner { public static void main(String[] args) throws IOException { Configuration conf = HBaseConfiguration.create(); HTable table = new HTable(conf, "testtable"); Scan scan = new Scan(); ResultScanner scanner = table.getScanner(scan); int scannerTimeout = (int) conf.getLong( HConstants.HBASE_REGIONSERVER_LEASE_PERIOD_KEY, -1); try { Thread.sleep(scannerTimeout + 5000);
} catch (Exception e) { // TODO: handle exception } while (true) { try { Result result = scanner.next(); if (result == null) break; System.out.println(result);
} catch (Exception e) { e.printStackTrace(); break; } } scanner.close();
}
}
|
这段代码得到了当前配置的租约时间,休眠了比这个时间更长的时间,然后服务器端感知租约超时并触发租约恢复操作。
用户可能会尝试向配置中添加如下信息:
Configuration conf = HBaseConfiguration.create() conf.setLong(HConstants.HBASE_REGIONSERVER_LEASE_PERIOD_KEY, 12000)
|
假如这个修改吧超时时间延长了,由于这个值是在客户端应用中配置的,不会被传递到远程region服务器,所以这样的修改是无效的。
如果对于数据量非常大的行,这些行很有可能超过客户端进程的内存容量。HBase和它的客户端API对这个问题有一个解决方法:批量。用户可以使用以下方法控制获取批量操作:
void setBatch(int batch) int getBatch()
|
缓存是面向行一级的操作,而批量是面向列一级的操作。批量可以让用户选择每一次ResultScanner()实例的next()操作要取回多少列。
如果一行包括的列数超过了批量中设置的值,则可以将这一行分片,每次next操作返回一片。
当一行的列数不能被批量中设置的值整除时,最后一次返回的Result实例会包含比较少的列,例如,如果有一行有17列,用户把batch的值设为5,则一共会返回4个result实例,这4个实例中包括的列数应当为5、5、5和2。
组合使用扫描器缓存和批量大小,可以让用户方便地控制扫描每一个范围内的行键时所需要的RPC调用次数。
方法如下:
import java.io.IOException;
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.client.HTable; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.Scan; import org.apache.log4j.Appender; import org.apache.log4j.AppenderSkeleton; import org.apache.log4j.Level; import org.apache.log4j.Logger; import org.apache.log4j.spi.LoggingEvent;
public class HBaseResultScanner { private static void scan(int caching, int batch) throws IOException { Configuration conf = HBaseConfiguration.create(); HTable table = new HTable(conf, "testtable"); Logger log = Logger.getLogger("org.apache.hadoop"); final int[] counters = { 0, 0 }; Appender appender = new AppenderSkeleton() { @Override protected void append(LoggingEvent event) { String msg = event.getMessage().toString(); if (msg != null && msg.contains("Call: next")) { counters[0]++; } }
@Override public boolean requiresLayout() { return false; }
@Override public void close() { }
}; log.removeAllAppenders(); log.setAdditivity(false); log.addAppender(appender); log.setLevel(Level.DEBUG); Scan scan = new Scan(); scan.setCaching(caching); scan.setBatch(batch); ResultScanner scanner = table.getScanner(scan); for (Result result : scanner) { counters[1]++; } scanner.close(); System.out.println("Caching: " + caching + ",Batch:" + batch + ",Results:" + counters[1] + ",RPCs:" + counters[0]);
}
public static void main(String[] args) throws IOException { scan(1, 1); scan(200, 1); scan(2000, 100); scan(2, 100); scan(2, 10); scan(5, 100); scan(5, 20); scan(10, 10); }
|
运行结果如下:
Caching:1,Batch:1,Results:200,RPCs:201 Caching:200,Batch:1,Results:200,RPCs:2 Caching:2000,Batch:100,Results:10,RPCs:1 Caching:2,Batch:100,Results:10,RPCs:6 Caching:2,Batch:10,Results:20,RPCs:11 Caching:5,Batch:100,Results:10,RPCs:3 Caching:5,Batch:20,Results:10,RPCs:3 Caching:10,Batch:10,Results:20,RPCs:3
|
用户可以修改调整这两个参数来看它们对输出结果的影响。如下表所示
缓存 |
批量处理 |
Result个数 |
RPC次数 |
说明 |
1 |
1 |
200 |
201 |
每个列都作为一个Result实例返回。最后还多一个RPC确认扫描完成 |
200 |
1 |
200 |
2 |
每个Result实例都只包含一列的值,不过它们都被一次RPC请求取回 |
2 |
10 |
20 |
11 |
批量参数是一行所包含的列数的一半,所以200列除以10,需要20个result实例。同时需要10次RPC请求取回。 |
5 |
100 |
10 |
3 |
对一行来讲,这个批量参数实在是太大了,所以一行的20列都被放入到了一个Result实例中。同时缓存为5,所以10个Result实例被两次RPC请求取回。 |
5 |
20 |
10 |
3 |
同上,不过这次的批量值与一行列数正好相同,所以输出与上面一种情况相同 |
10 |
10 |
20 |
3 |
这次把表分成了较小的result实例,但使用了较大的缓存值,所以也是只用了两次RPC请求就返回了数据 |
要计算一次扫描操作的RPC请求的次数,用户需要先计算出行数和每行列数的乘积。然后用这个值除以批量大小和每行列数中较小的那个值。最后再用除得的结果除以扫描器缓存值。 用数学公式表示如下:
RPC请求的次数=(行数x每行的列数)/ Min(每行的列数,批量大小)/扫描器缓存
|
此外,还需要一些请求来打开和关闭扫描器。用户或许需要把这两次请求也考虑在内。
下图展示了缓存和批量两个参数如何联动。
小的批量值使服务器端把3个列装入一个Result实例,同时扫描器缓存为6,使每个RPC请求传输6行,即6个被批量封装的Result实例。如果没有指定批量大小,而是指定了扫描器缓存,那么一个调用结果就能包含所有的行,因为每一行都包含在一个Result实例中。只有当用户使用批量模式后,行内(intra-row)扫描功能才会启用。