百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

阿里技术解密:为什么超过三张表禁止join?

mhr18 2024-12-18 15:11 15 浏览 0 评论

一、 问题提出

《阿里巴巴JAVA开发手册》里面写超过三张表禁止join,这是为什么?



二、问题分析

对这个结论,你是否有怀疑呢?也不知道是哪位先哲说的不要人云亦云,今天我设计sql,来验证这个结论。(实验没有从代码角度分析,目前达不到。可以把mysql当一个黑盒,使用角度来验证这个结论) 验证结论的时候,会有很多发现,各位往后看。

三、 实验环境

vmware10+centos7.4+mysql5.7.22

  • centos7内存4.5G,4核,50G硬盘。
  • mysql配置为2G,特别说明硬盘是SSD。

四、我概述下我的实验

有4张表,student学生表,teacher老师表,course课程表,sc中间关系表,记录了学生选修课程以及分数。具体sql脚本,看文章结尾,我附上。中间我自己写了造数据的脚本,也在结尾。

实验是为解决一个问题的:查询选修“tname553”老师所授课程的学生中,成绩最高的学生姓名及其成绩。

查询sql是:

select Student.Sname,course.cname,score 
 from Student,SC,Course ,Teacher 
 where Student.s_id=SC.s_id and SC.c_id=Course.c_id and sc.t_id=teacher.t_id 
 and Teacher.Tname='tname553' 
 and SC.score=(select max(score)from SC where sc.t_id=teacher.t_Id);

我来分析一下这个语句:4张表等值join,还有一个子查询。算是比较简单的sql语句了(相比ERP动就10张表的哦,已经很简单了)。我 还会分解这个语句成3个简单的sql:

 select max(score) from SC ,Teacher where sc.t_id=teacher.t_Id and Teacher.Tname='tname553';
 select sc.t_id,sc.s_id,score from SC ,Teacher 
 where sc.t_id=teacher.t_Id 
 and score=590 
 and Teacher.Tname='tname553';
 select Student.Sname,course.cname,score 
 from Student,SC ,course
 where Student.s_id=SC.s_id and sc.s_id in (20769800,48525000,26280200) and course.c_id = sc.c_id;

我来分析下:第一句,就是查询最高分,得到最高分590分。第二句就是查询出最高分的学生id,得到

20769800,48525000,26280200

第三句就是查询出学生名字和分数。这样这3个语句的就可以查询出来 成绩最高的学生姓名及其成绩 。

接下来我会分别造数据:1千万选课记录(一个学生选修2门课),造500万学生,100万老师(一个老师带5个学生,挺高端的吧),1000门课,。用上面查询语句查询。其中sc表我测试了下有索引和没有索引情况,具体见下表。

再接下来,我会造1亿选课记录(一个学生选修2门课),5000万学生,1000万老师,1000门课。然后分别执行上述语句。最后我会在oracle数据库上执行上述语句。

五、下面两张表是测试结果




六、仔细看上表,可以发现:

1.步骤3.1没有在连接键上加索引,查询很慢,说明:“多表关联查询时,保证被关联的字段需要有索引”;

2.步骤6.1,6.2,6.3,换成简单sql,在数据量1亿以上, 查询时间还能勉强接受。此时说明mysql查询有些吃力了,但是仍然嫩查询出来。

3.步骤5.1,mysql查询不出来,4表连接,对我本机mysql来说,1.5亿数据超过极限了(我调优过这个SQL,执行计划和索引都走了,没有问题,show profile显示在sending data.这个问题另外文章详谈。)

4.对比1.1 和5.1 步骤sql查询,4表连接,对我本机mysql来说 ,1.5千万数据查询很流利,是一个mysql数据量流利分水岭。(这个只是现象,不太准确,需要同时计算表的容量)。

5.步骤5.1对比6.1,6.2,6.3,多表join对mysql来说,处理有些吃力。

6.超过三张表禁止join,这个规则是针对mysql来说的。后续会看到我用同样机器,同样数据量,同样内存,可以完美计算 1.5亿数据量join。针对这样一个规则,对开发来说 ,需要把一些逻辑放到应用层去查询。

总结: 这个规则 超过三张表禁止join ,由于数据量太大的时候,mysql根本查询不出来,导致阿里出了这样一个规定。(其实如果表数据量少,10张表也不成问题,你自己可以试试)而我们公司支付系统朝着大规模高并发目标设计的,所以,遵循这个规定。

在业务层面来讲,写简单sql,把更多逻辑放到应用层,我的需求我会更了解,在应用层实现特定的join也容易得多。

七、让我们来看看oracle数据库的优秀表现:



看步骤7.1,就是没有索引,join表很多的情况下,oracle仍然26秒查询出结果来。所以我会说mysql的join很弱。那么问题来了,为什么现在使用很多人使用mysql呢?这是另外一个问题,我会另外说下我的思考。

看完本篇文章,另外我还附加赠送,所谓搂草打兔子。就是快速造数据。你可以自己先写脚本造数据,看看我是怎么造数据的,就知道我的技巧了。

八、附上部分截图






九、附上sql语句和造数据脚本

use stu;
drop table if exists student;
create table student 
 ( s_id int(11) not null auto_increment ,
 sno int(11), 
 sname varchar(50), 
 sage int(11), 
 ssex varchar(8) ,
 father_id int(11),
 mather_id int(11),
 note varchar(500),
 primary key (s_id),
 unique key uk_sno (sno)
 ) engine=innodb default charset=utf8mb4;
truncate table student;
 delimiter $
drop function if exists insert_student_data $
create function insert_student_data()
 returns int deterministic
 begin
 declare i int;
 set i=1;
 while i<50000000 do 
 insert into student values(i ,i, concat('name',i),i,case when floor(rand()*10)%2=0 then 'f' else 'm' end,floor(rand()*100000),floor(rand()*1000000),concat('note',i) );
 set i=i+1;
 end while;
 return 1;
 end$
delimiter ; 
select insert_student_data();
select count(*) from student;
use stu;
create table course 
 ( 
 c_id int(11) not null auto_increment ,
 cname varchar(50)
 note varchar(500), primary key (c_id)
 ) engine=innodb default charset=utf8mb4;
truncate table course;
 delimiter $
drop function if exists insert_course_data $
create function insert_course_data()
 returns int deterministic
 begin
 declare i int;
 set i=1;
 while i<=1000 do 
 insert into course values(i , concat('course',i),floor(rand()*1000),concat('note',i) );
 set i=i+1;
 end while;
 return 1;
 end$
delimiter ; 
select insert_course_data();
select count(*) from course;
use stu;
drop table if exists sc;
create table sc 
 ( 
 s_id int(11), 
 c_id int(11), 
 t_id int(11),
 score int(11) 
 ) engine=innodb default charset=utf8mb4;
truncate table sc;
 delimiter $
drop function if exists insert_sc_data $
create function insert_sc_data()
 returns int deterministic
 begin
 declare i int;
 set i=1;
 while i<=50000000 do 
 insert into sc values( i,floor(rand()*1000),floor(rand()*10000000),floor(rand()*750)) ;
 set i=i+1;
 end while;
 return 1;
 end$
delimiter ; 
select insert_sc_data();
commit;
select insert_sc_data();
commit;
create index idx_s_id on sc(s_id) ; 
create index idx_t_id on sc(t_id) ; 
create index idx_c_id on sc(c_id) ; 
select count(*) from sc;
use stu;
drop table if exists teacher;
create table teacher 
 ( 
 t_id int(11) not null auto_increment ,
 tname varchar(50) ,
 note varchar(500),primary key (t_id)
 ) engine=innodb default charset=utf8mb4;
 truncate table teacher;
 delimiter $
drop function if exists insert_teacher_data $
create function insert_teacher_data()
 returns int deterministic
 begin
 declare i int;
 set i=1;
 while i<=10000000 do 
 insert into teacher values(i , concat('tname',i),concat('note',i) );
 set i=i+1;
 end while;
 return 1;
 end$
delimiter ; 
select insert_teacher_data();
commit;
select count(*) from teacher;

这个是oracle的测试和造数据脚本

create tablespace scott_data datafile '/home/oracle/oracle_space/sitpay1/scott_data.dbf' size 1024m autoextend on; 
create tablespace scott_index datafile '/home/oracle/oracle_space/sitpay1/scott_index.dbf' size 64m autoextend on; 
create temporary tablespace scott_temp tempfile '/home/oracle/oracle_space/sitpay1/scott_temp.dbf' size 64m autoextend on; 
drop user scott cascade;
create user scott identified by tiger default tablespace scott_data temporary tablespace scott_temp ;
grant resource,connect,dba to scott;
drop table student;
create table student 
 ( s_id number(11) ,
 sno number(11) , 
 sname varchar2(50), 
 sage number(11), 
 ssex varchar2(8) ,
 father_id number(11),
 mather_id number(11),
 note varchar2(500)
 ) nologging;
truncate table student;
create or replace procedure insert_student_data
 is 
 q number(11);
 begin 
 q:=0;
 for i in 1..50 loop 
 insert /*+append*/ into student select rownum+q as s_id,rownum+q as sno, concat('sutdent',rownum+q ) as sname,floor(dbms_random.value(1,100)) as sage,'f' as ssex,rownum+q as father_id,rownum+q as mather_id,concat('note',rownum+q ) as note from dual connect by level<=1000000;
 q:=q+1000000;
 commit;
 end loop; 
end insert_student_data;
/
call insert_student_data();
alter table student add constraint pk_student primary key (s_id);
commit; 
select count(*) from student;
create table course 
 ( 
 c_id number(11) primary key,
 cname varchar2(50),
 note varchar2(500) 
 ) ;
truncate table course;
 create or replace procedure insert_course_data
 is 
 q number(11);
 begin 
 for i in 1..1000 loop 
 insert /*+append*/ into course values(i , concat('name',i),concat('note',i) ); 
 end loop; 
end insert_course_data;
/
call insert_course_data();
commit; 
select count(*) from course;
create table sc 
 ( 
 s_id number(11), 
 c_id number(11), 
 t_id number(11),
 score number(11) 
 ) nologging;
truncate table sc;
 create or replace procedure insert_sc_data
 is 
 q number(11);
 begin 
 q:=0;
 for i in 1..50 loop 
 insert /*+append*/ into sc select rownum+q as s_id, floor(dbms_random.value(0,1000)) as c_id,floor(dbms_random.value(0,10000000)) t_id,floor(dbms_random.value(0,750)) as score from dual connect by level<=1000000;
 q:=q+1000000;
 commit;
 end loop; 
end insert_sc_data;
/
call insert_sc_data();
create index idx_s_id on sc(s_id) ; 
create index idx_t_id on sc(t_id) ; 
create index idx_c_id on sc(c_id) ; 
select count(*) from sc;
create table teacher 
 ( 
 t_id number(11) ,
 tname varchar2(50) ,
 note varchar2(500)
 )nologging ;
 truncate table teacher;
create or replace procedure insert_teacher_data
 is 
 q number(11);
 begin 
 q:=0;
 for i in 1..10 loop 
 insert /*+append*/ into teacher select rownum+q as t_id, concat('teacher',rownum+q ) as tname,concat('note',rownum+q ) as note from dual connect by level<=1000000;
 q:=q+1000000;
 commit;
 end loop; 
end insert_teacher_data;
/
call insert_teacher_data();
alter table teacher add constraint pk_teacher primary key (t_id);
select count(*) from teacher;

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/30393770/viewspace-2650450/

相关推荐

AlmaLinux 9.6发布:升级工具、初步支持IBM Power虚拟化技术

IT之家5月21日消息,科技媒体linuxiac昨日(5月20日)发布博文,报道称代号为SageMargay的AlmaLinux9.6发行版已上线,距上一版本9.5发...

Java最新学习路线,系统全面,零基础适用

首先,我个人比较推崇的学习方法是:先学java前段,也就是HTML,css,js,因为学习java以后肯定是往javaee方向发展的,学习完前端,在学习后端很多东西比计较容易理解!其中J2SE是关键...

深入理解数据库事务(数据库事务处理的理解)

Transaction作为关系型数据库的核心组成,在数据安全方面有着非常重要的作用,本文会一步步解析事务的核心特性,以获得对事务更深的理解。什么是事务数据库几乎是所有系统的核心模块,它将数据有条理地保...

IvorySQL 4.4 发布(1044mysql)

IvorySQL4.4已于2025年3月10日正式发布。新版本全面支持PostgreSQL17.4,新增多项新功能,并修复了已知问题。增强功能PostgreSQL17.3增强功...

Oracle 与 Google Cloud 携手大幅扩展多云服务

据DCD4月10日报道,甲骨文(Oracle)与谷歌云(GoogleCloud)深化合作,全力扩展多云产品。双方计划为OracleDatabaseGoogleCloud解决方案新增11...

Izzi 利用 Oracle 云提高计费效率和客户体验

据thefastmode网5月2日报道,墨西哥电信运营商Izzi宣布采用Oracle云基础设施(OCI),对其业务支持系统(BSS)进行现代化改造增强客户体验,已经成功完成。通过在OCI上运行...

好莱坞群星也有明星脸?硅谷科技名人本尊分身比一比

假如有部电影齐聚了众科技名人角色,如同许多好莱坞大牌卡司所共同主演的《瞒天过海》(Ocean’sEleven)那样,演出彼此在商场上竞逐、或共同对抗外来竞争捍卫硅谷的故事,更在剧中有不少对手戏,会不...

澳大利亚Find My iPhone被黑 多人被黑客锁机

FindMyiPhone本来是一个用于协助找回被盗手机的好工具,但是现在,澳洲的苹果用户发现他们的FindMyiPhone变成了黑客的帮凶。昨天,这名自称为OlegPliss的黑客使用Fin...

服务器密码错误被锁定怎么解决(服务器密码失效)

#服务器密码错误被锁定解决方案当服务器因多次密码错误导致账户被锁定时,可以按照以下步骤进行排查和解决:##一、确认锁定状态###1.检查账户锁定状态(Linux)```bash#查看账户锁定...

凌晨突发的数据库重大故障,我排查了一整天……

春节期间过得太热闹了,上班确实没啥状态,这不刚发生的一个重大性能故障,排查了整整一天,后面的领导都站成了一排,本次把故障发生的详细分析过程分享给大家!本次故障发生在凌晨,核心应用卡顿非常严重,Orac...

Oracle锁表紧急处理!3招快速解锁方案

开篇:突发故障现场凌晨1点,某电商系统突然卡顿,数千笔支付订单无法完成——数据库出现死锁,技术团队紧急响应...(遇到类似情况的,欢迎在评论区分享经历)一、问题重现:死锁是如何产生的?典型场景:问题根...

JetBrains DataGrip Mac中文破解版V2025.1下载安装教程

DataGripforMac是由JetBrains开发的数据库集成开发环境(IDE),专为数据库管理员和开发人员设计。它支持多种数据库(如MySQL、PostgreSQL、Oracle、SQ...

电脑装安卓系统,安卓X86版5.1 RC1下载

日前,谷歌放出了Android-x865.1的第一个候选版本Android-x865.1RC1,该版本基于Android5.1.1r24Lollipop开发,更新包括大量x86(32位)代...

来来来!一文告诉你Eclipse的正确安装使用姿势,你都清楚吗?

前言本学习笔记是有关如何设置Eclipse的详细说明。即使你天天在使用它,但是,相信我,或许你并不足够了解它。安装Java运行时环境Eclipse是Java应用程序,因此设置Eclipse的第一步是安...

分享收藏的 oracle 11.2.0.4各平台的下载地址

概述oracle11.2.0.4是目前生产环境用的比较多的版本,同时也是很稳定的一个版本。目前官网上已经找不到下载链接了,有粉丝在头条里要求分享一下下载地址。一、各平台下载地址1.1Linuxx...

取消回复欢迎 发表评论: