网上有人给出了佳的优化思路是:

  1、先将大表中满足条件的记录抽出来生成一张临时表

  2、再将这较小的临时表与另一张较小的表进行关联查询

  先不论思路是否值得商榷,这把临时表当成中转站的做法还是很值得肯定。

  临时表本质上是一种cache的表现形式,Oracle的临时表都是事先建好的,一旦用了临时表,存放的是和本会话相关的数据,没有人会傻乎乎地用临时表来保存本应该共享的数据。

  with子查询实际上也是用了临时表,Oracle会替你创建一张临时表,因此临时表的开销WITH子查询也会有。只要把AUTOTRACE打开你会看到REDO的开销。

  关于临时表的使用至少会带来两个问题:

  1)主查询的执行计划问题

  2)额外的写redo的问题

  如果,临时表作为复杂查询条件的中间结果用于主查询,因为临时表里往往只是个别字段的少量数据,1)的问题比较突出;

  如果,临时表作为终展现前的结果归集,可能临时表会有比较多字段的较多数据,2)的问题比较突出

  (一)主查询的执行计划问题

  9i临时表由于动态采样level 1,还得用hint,10g比较好用。比较复杂的存储过程(比如数据抽取)可能用到临时表,比实体表优势是redo少,自动清除。

  对于临时表的缺陷--采样问题,执行计划的问题其实主要是临时表的cardinality的问题。

  对于临时表方案,建议动态采样。9IR2以后的版本使用DYNAMIC_SAMPLING 参数或hint能基本避免。如写上 HINT强制它采样 /*+dynamic_sampling(t 0) */

  cardinality hint分段提示是个比较好的佳实践

  例如:

  临时表里的数据量有大起大落的情形,Oracle只会在硬解析的时候做一次取样。当临时表数据量变化之后,原来的执行计划可能已经不是优的。碰到这种问题建议使用动态SQL。

  临时表的数据量在插入结束之后可以通过SQL%ROWCOUNT得知,然后在动态SQL里面拼入cardinality提示,这个提示没有必要精确,要不然你会有无数的硬解析了。

  建议给它设置的坎是5000,即1-5000当作5000处理,5001-10000当作10000,如此类推,CARDINALITY = CEIL(SQL%ROWCOUNT/5000)*5000,你也可以通过测试调整出一个合理的值。

  (二)临时表的redo生成

  临时表不会为它们的块生成redo。因此,对临时表的操作不是“可恢复的”。

  修改临时表中的一个块时,不会将这个修改记录到重做日志文件中。不过,临时表确实会生成undo,而且这个undo 会计入日志。因此,临时表也会生成一些redo。

  为什么需要生成undo?这是因为你能回滚到事务中的一个SAVEPOINT

  临时表可以有约束,正常表有的一切临时表都可以有。可能有一条INSERT 语句要向临时表中插入500 行,但插入到第500 行时失败了,这要求回滚这条语句。由于临时表一般表现得像“正常”表一样,所以临时表必须生成undo。由于undo 数据必须建立日志,因此临时表会为所生成的undo 生成一些重做日志,redo的出现是为了保护undo。不过,在临时表上运行的SQL 语句主要是INSERT 和SELECT,INSERT 只生成极少的undo 另外SELECT 根本不生成undo。所以,临时表的redo是因为要undo生成,实际上多数使用临时表的情况是用于查询,因此往往没有undo的需求。

  (三)临时表的使用场景

  ① 循环SQL

  初优化前,系统中有很多类似的sql循环执行,效率很低。比如通常会有通过接口传入数千的参数,然后根据这些参数循环执行sql。优化时,可先把这些参数insert到临时表,然后关联该临时表一次执行以达到优化的效果。

  ② 多表关联

  利用临时表简化有太多表关联的复杂SQL

  ③ 如果某个数据集会重复多次使用的情况下建议使用临时表

  ④ 临时表在逻辑复杂的大数据量更新的时候很有用,查询部分with可以了

  ⑤ 临时表作为复杂查询条件的中间结果用于主查询