Oracle对百万条记录的数据sqlldr加载(超详细)
mhr18 2024-10-15 10:42 22 浏览 0 评论
欢迎关注
奋进的码哥的博客_CSDN博客-Oracle,hadoop,PostgreSQL领域博主
https://blog.csdn.net/u010438126?type=blog
背景:
在实际工作中应用SQLLDR执行数据加载,多数情况是数据量已经达到了一定的级别,下面是我自己构建了100W条记录的场景,看看实际加载情况如何,以及如何进行加载优化。
1,找到一张合适的表
[root@dongjj-pc-01 file]#sqlplus /nolog
SQL*Plus: Release 12.2.0.1.0 Production on 星期三 12月 28 17:45:36 2022
Copyright (c) 1982, 2016, Oracle. All rights reserved.
SQL> conn sys/abcABC123 as sysdba
已连接。
SQL> select count(*) from dba_objects;
COUNT(*)
----------
72930
做笛卡尔积关联,生成130W的记录
select a.owner||',"'||a.object_name||'",'||a.object_id||','||to_char(a.created,'YYYY-MM-DD hh24:mi:ss')||','||a.status
from dba_objects a,(select rownum as rn from dual connect by rownum <=20) b;
SQL> select count(*) from (
2 select a.owner||',"'||a.object_name||'",'||a.object_id||','||to_char(a.created,'YYYY-MM-DD hh24:mi:ss')||','||a.status
3 from dba_objects a,(select rownum as rn from dual connect by rownum <=20) b
4 ) m
5 ;
COUNT(*)
----------
1458600
2,生成数据文件并初始化数据
生成140W的记录,到指定csv文件中,具体的操作步骤如下
首先创建一个sql文件,保存上面的语句,注意在sql后面已经带分号 ;
[root@dongjj-pc-01 sql]#ls
load.sql
[root@dongjj-pc-01 sql]#pwd
/file/sql
[root@dongjj-pc-01 sql]#cat load.sql
select a.owner||',"'||a.object_name||'",'||a.object_id||','||to_char(a.created,'YYYY-MM-DD hh24:mi:ss')||','||a.status
from dba_objects a,(select rownum as rn from dual connect by rownum <=20) b;
[root@dongjj-pc-01 sql]#
创建执行sql文件,getdata.sql
set echo off
set term off
set line 1000 pages 0
set feedback off
set heading off
spool /file/data/load_data.csv
@/file/sql/load.sql
spool off
set heading on
set feedback on
set term on
set echo on
[root@dongjj-pc-01 sql]#pwd
/file/sql
[root@dongjj-pc-01 sql]#cat getdata.sql
set echo off
set term off
set trims on --去掉空字符
set line 1000 pages 0
set feedback off
set heading off
spool /file/data/load_data.csv
@/file/sql/load.sql
spool off
set heading on
set feedback on
set term on
set echo on
[root@dongjj-pc-01 sql]#
然后到sqlplus中,命令行执行getdata.sql
@/file/sql/getdata.sql
[root@dongjj-pc-2005 data]#ll -h
总用量 1.4G
-rw-r--r-- 1 root root 1.4G 1月 8 18:08 load_data.csv
初始化,创建测试表
create table tb_getdata(
owner varchar2(30),
object_name varchar2(50),
object_id number,
status varchar2(50),
created date
);
create index idx_ob on tb_getdata(owner,object_name);
4,创建控制文件 ldr_tb_getdata.ctl
LOAD DATA
INFILE '/file/data/load_data.csv'
truncate into table tb_getdata
fields terminated by "," optionally enclosed by '"'
(OWNER,
OBJECT_NAME,
OBJECT_ID,
CREATED date 'yyyy-mm-dd hh24:mi:ss',
STATUS
)
注意时间列这个字段,已经指定了时间格式,并进行了转换,一定要和数据文件的时间格式相符。不然会导致失败。
5,sqlldr 命令常规导入
sqlldr c##djj/c##djj@orcl control=ldr_tb_getdata.ctl errors = 10
查看导入日志
SQL*Loader: Release 12.2.0.1.0 - Production on 星期日 1月 8 20:41:42 2023
Copyright (c) 1982, 2017, Oracle and/or its affiliates. All rights reserved.
控制文件: ldr_tb_getdata.ctl
数据文件: /file/data/load_data.csv
错误文件: load_data.bad
废弃文件: 未作指定
(可废弃所有记录)
要加载的数: ALL
要跳过的数: 0
允许的错误: 10
绑定数组: 64 行, 最大 256000 字节
继续: 未作指定
所用路径: 常规
表 TB_GETDATA,已加载从每个逻辑记录
插入选项对此表 TRUNCATE 生效
列名 位置 长度 中止 包装 数据类型
------------------------------ ---------- ----- ---- ---- ---------------------
OWNER FIRST * , O (") CHARACTER
OBJECT_NAME NEXT * , O (") CHARACTER
OBJECT_ID NEXT * , O (") CHARACTER
CREATED NEXT * , O (") DATE yyyy-mm-dd hh24:mi:ss
STATUS NEXT * , O (") CHARACTER
表 TB_GETDATA:
已成功载入 1453560 行。
由于数据错误, 0 行 没有加载。
由于所有 WHEN 子句失败, 0 行 没有加载。
由于所有字段都为空值, 0 行 没有加载。
为绑定数组分配的空间: 82560 字节 (64 行)
读取 缓冲区字节数: 1048576
跳过的逻辑记录总数: 0
读取的逻辑记录总数: 1453560
拒绝的逻辑记录总数: 0
废弃的逻辑记录总数: 0
从 星期日 1月 08 20:41:42 2023 开始运行
在 星期日 1月 08 20:42:24 2023 处运行结束
经过时间为: 00: 00: 41.83
CPU 时间为: 00: 00: 05.31
5.1 sqlldr 优化,使用rows
sqlldr这个命令默认的加载行数是64行,因为现在导入的行数是百万级别,需要重新设置rows的值
--加载全部数据,同时指定errors参数值=10,指定出现10次错误就停止加载。rows = 640
sqlldr c##djj/c##djj@orcl control=ldr_tb_getdata.ctl errors = 10 rows = 640
经过重设rwos的值,发现本次的导入时间缩短
SQL*Loader: Release 12.2.0.1.0 - Production on 星期日 1月 8 20:49:13 2023
Copyright (c) 1982, 2017, Oracle and/or its affiliates. All rights reserved.
控制文件: ldr_tb_getdata.ctl
数据文件: /file/data/load_data.csv
错误文件: load_data.bad
废弃文件: 未作指定
(可废弃所有记录)
要加载的数: ALL
要跳过的数: 0
允许的错误: 10
绑定数组: 640 行, 最大 256000 字节
继续: 未作指定
所用路径: 常规
表 TB_GETDATA,已加载从每个逻辑记录
插入选项对此表 TRUNCATE 生效
列名 位置 长度 中止 包装 数据类型
------------------------------ ---------- ----- ---- ---- ---------------------
OWNER FIRST * , O (") CHARACTER
OBJECT_NAME NEXT * , O (") CHARACTER
OBJECT_ID NEXT * , O (") CHARACTER
CREATED NEXT * , O (") DATE yyyy-mm-dd hh24:mi:ss
STATUS NEXT * , O (") CHARACTER
ROWS 参数所用的值已从 640 更改为 198
表 TB_GETDATA:
已成功载入 1453560 行。
由于数据错误, 0 行 没有加载。
由于所有 WHEN 子句失败, 0 行 没有加载。
由于所有字段都为空值, 0 行 没有加载。
为绑定数组分配的空间: 255420 字节 (198 行)
读取 缓冲区字节数: 1048576
跳过的逻辑记录总数: 0
读取的逻辑记录总数: 1453560
拒绝的逻辑记录总数: 0
废弃的逻辑记录总数: 0
从 星期日 1月 08 20:49:13 2023 开始运行
在 星期日 1月 08 20:49:43 2023 处运行结束
经过时间为: 00: 00: 29.98
CPU 时间为: 00: 00: 04.45
5.2 sqlldr优化,使用bindsize
可以设置bindsize的值,默认是256K,可以改为10m(即 1024*1024*10 = 10485760),同时将一次加载的行数提高到5000
sqlldr c##djj/c##djj@orcl control=ldr_tb_getdata.ctl errors = 10 rows = 5000 bindsize = 10485760
SQL*Loader: Release 12.2.0.1.0 - Production on 星期日 1月 8 20:56:01 2023
Copyright (c) 1982, 2017, Oracle and/or its affiliates. All rights reserved.
控制文件: ldr_tb_getdata.ctl
数据文件: /file/data/load_data.csv
错误文件: load_data.bad
废弃文件: 未作指定
(可废弃所有记录)
要加载的数: ALL
要跳过的数: 0
允许的错误: 10
绑定数组: 5000 行, 最大 10485760 字节
继续: 未作指定
所用路径: 常规
表 TB_GETDATA,已加载从每个逻辑记录
插入选项对此表 TRUNCATE 生效
列名 位置 长度 中止 包装 数据类型
------------------------------ ---------- ----- ---- ---- ---------------------
OWNER FIRST * , O (") CHARACTER
OBJECT_NAME NEXT * , O (") CHARACTER
OBJECT_ID NEXT * , O (") CHARACTER
CREATED NEXT * , O (") DATE yyyy-mm-dd hh24:mi:ss
STATUS NEXT * , O (") CHARACTER
表 TB_GETDATA:
已成功载入 1453560 行。
由于数据错误, 0 行 没有加载。
由于所有 WHEN 子句失败, 0 行 没有加载。
由于所有字段都为空值, 0 行 没有加载。
为绑定数组分配的空间: 6450000 字节 (5000 行)
读取 缓冲区字节数:10485760
跳过的逻辑记录总数: 0
读取的逻辑记录总数: 1453560
拒绝的逻辑记录总数: 0
废弃的逻辑记录总数: 0
从 星期日 1月 08 20:56:01 2023 开始运行
在 星期日 1月 08 20:56:25 2023 处运行结束
经过时间为: 00: 00: 23.81
CPU 时间为: 00: 00: 03.58
发现又缩短了几秒的时间。
那还能不能在快点呢?下面该使用杀手锏了。。。。。
可以使用直接路径加载,需要设置direct参数
5.3 sqlldr 优化,direct参数
sqlldr c##djj/c##djj@orcl control=ldr_tb_getdata.ctl direct = true
SQL*Loader: Release 12.2.0.1.0 - Production on 星期日 1月 8 21:00:23 2023
Copyright (c) 1982, 2017, Oracle and/or its affiliates. All rights reserved.
控制文件: ldr_tb_getdata.ctl
数据文件: /file/data/load_data.csv
错误文件: load_data.bad
废弃文件: 未作指定
(可废弃所有记录)
要加载的数: ALL
要跳过的数: 0
允许的错误: 50
继续: 未作指定
所用路径: 直接
表 TB_GETDATA,已加载从每个逻辑记录
插入选项对此表 TRUNCATE 生效
列名 位置 长度 中止 包装 数据类型
------------------------------ ---------- ----- ---- ---- ---------------------
OWNER FIRST * , O (") CHARACTER
OBJECT_NAME NEXT * , O (") CHARACTER
OBJECT_ID NEXT * , O (") CHARACTER
CREATED NEXT * , O (") DATE yyyy-mm-dd hh24:mi:ss
STATUS NEXT * , O (") CHARACTER
表 TB_GETDATA 的以下索引已处理:
索引 C##DJJ.IDX_OB 已成功加载, 具有 1453560 个关键字
表 TB_GETDATA:
已成功载入 1453560 行。
由于数据错误, 0 行 没有加载。
由于所有 WHEN 子句失败, 0 行 没有加载。
由于所有字段都为空值, 0 行 没有加载。
日期转换高速缓存由于溢出而被禁用 (默认大小: 1000)
在直接路径中没有使用绑定数组大小。
列数组 行数: 5000
流缓冲区字节数: 256000
读取 缓冲区字节数: 1048576
跳过的逻辑记录总数: 0
读取的逻辑记录总数: 1453560
拒绝的逻辑记录总数: 0
废弃的逻辑记录总数: 0
由 SQL*Loader 主线程加载的流缓冲区总数: 336
由 SQL*Loader 加载线程加载的流缓冲区总数: 169
从 星期日 1月 08 21:00:23 2023 开始运行
在 星期日 1月 08 21:00:38 2023 处运行结束
经过时间为: 00: 00: 14.80
CPU 时间为: 00: 00: 02.01
时间直接缩短了10多秒,相当不错了啊
那还能不能再快点啊?别着急,还有办法啊
5.4 sqlldr优化,streamsize参数和date_cache参数
streamsize :
直接路径加载默认读取全部数据,因此不需要设置row参数,读取的数据存入流缓存区。该参数默认值是256k,可以加载到10mb,即10485760
date_cache:
该参数指定一个转换后的时间格式缓存区,以条为单位,默认值是1000条,即保存1000条后转换时间格式。因为导入的数据中有时间列,所以把该参数设置5000,以降低日期转换操作带来的时间开销。
sqlldr c##djj/c##djj@orcl control=ldr_tb_getdata.ctl direct = true streamsize = 10485760 date_cache = 5000
SQL*Loader: Release 12.2.0.1.0 - Production on 星期日 1月 8 21:17:16 2023
Copyright (c) 1982, 2017, Oracle and/or its affiliates. All rights reserved.
控制文件: ldr_tb_getdata.ctl
数据文件: /file/data/load_data.csv
错误文件: load_data.bad
废弃文件: 未作指定
(可废弃所有记录)
要加载的数: ALL
要跳过的数: 0
允许的错误: 50
继续: 未作指定
所用路径: 直接
表 TB_GETDATA,已加载从每个逻辑记录
插入选项对此表 TRUNCATE 生效
列名 位置 长度 中止 包装 数据类型
------------------------------ ---------- ----- ---- ---- ---------------------
OWNER FIRST * , O (") CHARACTER
OBJECT_NAME NEXT * , O (") CHARACTER
OBJECT_ID NEXT * , O (") CHARACTER
CREATED NEXT * , O (") DATE yyyy-mm-dd hh24:mi:ss
STATUS NEXT * , O (") CHARACTER
表 TB_GETDATA 的以下索引已处理:
索引 C##DJJ.IDX_OB 已成功加载, 具有 1453560 个关键字
表 TB_GETDATA:
已成功载入 1453560 行。
由于数据错误, 0 行 没有加载。
由于所有 WHEN 子句失败, 0 行 没有加载。
由于所有字段都为空值, 0 行 没有加载。
日期高速缓存:
最大大小: 5000
条目数: 1663
命中数 : 1451897
未命中数 : 0
在直接路径中没有使用绑定数组大小。
列数组 行数: 5000
流缓冲区字节数:10485760
读取 缓冲区字节数: 1048576
跳过的逻辑记录总数: 0
读取的逻辑记录总数: 1453560
拒绝的逻辑记录总数: 0
废弃的逻辑记录总数: 0
由 SQL*Loader 主线程加载的流缓冲区总数: 336
由 SQL*Loader 加载线程加载的流缓冲区总数: 0
从 星期日 1月 08 21:17:16 2023 开始运行
在 星期日 1月 08 21:17:24 2023 处运行结束
经过时间为: 00: 00: 07.65
CPU 时间为: 00: 00: 01.09
从以上结果看出,时间直接缩短了两倍不止啊。。。。。
相关推荐
- redis 7.4.3更新!安全修复+性能优化全解析
-
一、Redis是什么?为什么选择它?Redis(RemoteDictionaryServer)是一款开源的高性能内存键值数据库,支持持久化、多数据结构(如字符串、哈希、列表等),广泛应用于缓存、消...
- C# 读写Redis数据库的简单例子
-
CSRedis是一个基于C#的Redis客户端库,它提供了与Redis服务器进行交互的功能。它是一个轻量级、高性能的库,易于使用和集成到C#应用程序中。您可以使用NuGet包管理器或使用以下命令行命令...
- 十年之重修Redis原理
-
弱小和无知并不是生存的障碍,傲慢才是。--------面试者总结Redis可能都用过,但是从来没有理解过,就像一个熟悉的陌生人,本文主要讲述了Redis基本类型的使用、数据结构、持久化、单线程模型...
- 高频L2行情数据Redis存储架构设计(含C++实现代码)
-
一、Redis核心设计原则内存高效:优化数据结构,减少内存占用低延迟访问:单次操作≤0.1ms响应时间数据完整性:完整存储所有L2字段实时订阅:支持多客户端实时数据推送持久化策略:RDB+AOF保障数...
- Magic-Boot开源引擎:零代码玩转企业级开发,效率暴涨!
-
一、项目介绍基于magic-api搭建的快速开发平台,前端采用Vue3+naive-ui最新版本搭建,依赖较少,运行速度快。对常用组件进行封装。利用Vue3的@vue/compiler-sfc单文...
- 项目不行简历拉胯?3招教你从面试陪跑逆袭大厂offer!
-
项目不行简历拉胯?3招教你从面试陪跑逆袭大厂offer!老铁们!是不是每次面试完都感觉自己像被大厂面试官婉拒的渣男?明明刷了三个月题库,背熟八股文,结果一被问项目就支支吾吾,简历写得像大学生课程设计?...
- 谷歌云平台:开发者部署超120个开源包
-
从国外相关报道了解,Google与Bitnami合作为Google云平台增加了一个新的功能,为了方便开发人员快捷部署程序,提供了120余款开源应用程序云平台的支持。这些应用程序其中包括了WordPre...
- 知名互联网公司和程序员都看好的数据库是什么?
-
2017年数据库领域的最大趋势是什么?什么是最热的数据处理技术?学什么数据库最有前途?程序员们普遍不喜欢的数据库是什么?本文都会一一揭秘。大数据时代,数据库的选择备受关注,此前本号就曾揭秘国内知名互联...
- 腾讯云发布云存储MongoDB服务
-
近日,著名安全专家兼Shodan搜索引擎的创建者JohnMatherly发现,目前至少有35000个受影响的MongoDB数据库暴露在互联网上,它们所包含的数据暴露在网络攻击风险之中。据估计,将近6...
- 已跪,Java全能笔记爆火,分布式/开源框架/微服务/性能调优全有
-
前言程序员,立之根本还是技术,一个程序员的好坏,虽然不能完全用技术强弱来判断,但是技术水平一定是基础,技术差的程序员只能CRUD,技术不深的程序员也成不了架构师。程序员对于技术的掌握,除了从了解-熟悉...
- 面试官:举个你解决冲突的例子?别怂!用这个套路……
-
面试官:举个你解决冲突的例子?别怂!用这个套路……最近收到粉丝私信,说被问到:团队技术方案有分歧怎么办?当场大脑宕机……兄弟!这不是送命题,是展示你情商+技术判断力的王炸题!今天教你们3招,用真实案例...
- 面试碰到MongoDB?莫慌,跟面试官这样吹MongoDB 复制集
-
推荐阅读:吊打MySQL:21性能优化实践+学习导图+55面试+笔记+20高频知识点阿里一线架构师分享的技术图谱,进阶加薪全靠它十面字节跳动,依旧空手而归,我该放弃吗?文末会分享一些MongoDB的学...
- SpringBoot集成扩展-访问NoSQL数据库之Redis和MongoDB!
-
与关系型数据库一样,SpringBoot也提供了对NoSQL数据库的集成扩展,如对Redis和MongoDB等数据库的操作。通过默认配置即可使用RedisTemplate和MongoTemplate...
- Java程序员找工作总卡项目关?
-
Java程序员找工作总卡项目关?3招教你用真实经历写出HR抢着要的简历!各位Java老哥,最近刷招聘软件是不是手都划酸了?简历投出去石沉大海,面试邀请却总在飞别人的简历?上周有个兄弟,13年经验投了5...
- Java多租户SaaS系统实现方案
-
嗯,用户问的是Java通过租户id实现的SaaS方案。首先,我需要理解用户的需求。SaaS,也就是软件即服务,通常是指多租户的架构,每个租户的数据需要隔离。用户可能想知道如何在Java中利用租户ID来...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- oracle位图索引 (63)
- oracle批量插入数据 (62)
- oracle事务隔离级别 (53)
- oracle 空为0 (50)
- oracle主从同步 (55)
- oracle 乐观锁 (51)
- redis 命令 (78)
- php redis (88)
- redis 存储 (66)
- redis 锁 (69)
- 启动 redis (66)
- redis 时间 (56)
- redis 删除 (67)
- redis内存 (57)
- redis并发 (52)
- redis 主从 (69)
- redis 订阅 (51)
- redis 登录 (54)
- redis 面试 (58)
- 阿里 redis (59)
- redis 搭建 (53)
- redis的缓存 (55)
- lua redis (58)
- redis 连接池 (61)
- redis 限流 (51)