广告位联系
返回顶部
分享到

mysql中批量插入数据 1万、100万、1000万、1亿级别数据

Mysql 来源:csdn 作者:蓝色小飞鸟 发布时间:2019-01-03 12:36:03 人浏览
摘要

本篇文章给大家介绍mysql中关于批量插入数据 1万、100万、1000万、1亿级别的数据的方法。 硬件:windows7+8G内存+i3-4170处理器+4核CPU 首先贴上数据库的操作类BaseDao: import java.sql.Connection;import java.sql.DriverManager;import java.sql.Prepare

本篇文章给大家介绍mysql中关于批量插入数据 1万、100万、1000万、1亿级别的数据的方法。

硬件:windows7+8G内存+i3-4170处理器+4核CPU

首先贴上数据库的操作类BaseDao:


import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.util.List;
 
import com.lk.entity.TUser;
 
public class BaseDao {
	private static ConfigManager cm = ConfigManager.getInstance();
 
	private static String Driver = null;
	private static String URL = null;
	private static String USER = null;
	private static String PWD = null;
 
	private static Connection conn = null;
	private static PreparedStatement psmt = null;
	public ResultSet rs = null;
	public int row = 0;
 
	static {
		Driver = cm.getString("DRIVER");
		URL = cm.getString("URL");
		USER = cm.getString("USER");
		PWD = cm.getString("PWD");
		try {
			Class.forName(Driver);
		} catch (ClassNotFoundException e) {
			e.printStackTrace();
		}
		getConnection();
		try {
			conn.setAutoCommit(false);
			psmt = conn.prepareStatement("");
		} catch (SQLException e) {
			e.printStackTrace();
		}
	}
 
	private static Connection getConnection() {
		try {
			conn = DriverManager.getConnection(URL, USER, PWD);
		} catch (SQLException e) {
			e.printStackTrace();
		}
		return conn;
	}
 
	/**
	 * 多条记录插入操作
     * flag是为了判断是否是插入的最后一个记录
	 */
	public boolean affectRowMore(String sql, List<TUser> list, long flag) {
		try {
			psmt = conn.prepareStatement(sql);
			for (TUser tUser : list) {
				psmt.setLong(1, tUser.getId());
				psmt.setString(2, tUser.getName());
				psmt.setInt(3, tUser.getSex());
				psmt.setString(4, tUser.getPhone());
				psmt.setString(5, tUser.getPassword());
				// 添加执行sql
				psmt.addBatch();
			}
			// 执行操作
			int[] counts = psmt.executeBatch(); // 执行Batch中的全部语句
			conn.commit(); // 提交到数据库
			for (int i : counts) {
				if (i == 0) {
					conn.rollback();
				}
			}
			closeAll(flag);
		} catch (SQLException e) {
			e.printStackTrace();
			return false;
		}
		return true;
	}
 
	/**
	 * 多条记录插入操作
	 */
	public boolean affectRowMore1(String sql, long flag) {
		try {
			psmt.addBatch(sql);
			// 执行操作
			int[] counts = psmt.executeBatch(); // 执行Batch中的全部语句
			conn.commit(); // 提交到数据库
			for (int i : counts) {
				if (i == 0) {
					conn.rollback();
					return false;
				}
			}
			closeAll(flag);
		} catch (SQLException e) {
			e.printStackTrace();
			return false;
		}
		return true;
	}
 
	public void closeAll(long flag) {
		try {
			if (conn != null && flag == -1) {
				// 在完成批量操作后恢复默认的自动提交方式,提高程序的可扩展性
				conn.setAutoCommit(true);
				conn.close();
			}
			if (psmt != null && flag == -1) {
				psmt.close();
			}
			if (rs != null) {
				rs.close();
			}
		} catch (SQLException e) {
			e.printStackTrace();
		}
	}
}

方法一:

通过BaseDao中的affectRowMore方法进行插入,插入的速度如下所示:


     * 一万条数据(通过多条添加)
     * 生成1万条数据共花费978毫秒
     * 生成10万条数据共花费5826毫秒
     * 生成100万条数据共花费54929毫秒
     * 生成1000万条数据共花费548640毫秒
     * 生成1亿条数据(因为数字过大,没有计算)

public void insertBenchMark() {
		long start = System.currentTimeMillis();
		List<TUser> list = new ArrayList<>();
		long row = 1;
		for (int j = 0; j < 1000; j++) {
			for (int i = 0; i < 10000; i++) {
				String uuid = UUID.randomUUID().toString();
				String name = uuid.substring(0, 4);
				int sex = -1;
				if(Math.random() < 0.51) {
					sex = 1;
				}else {
					sex = 0;
				}
				String phone = (String) RandomValue.getAddress().get("tel");
				list.add(new TUser(row,name, sex, phone, uuid));
				row++;
			}
			int flag = 1;
			if(j==999) {
				flag = -1;
			}
			//封装好的
			boolean b = userDao.insertMore(list,flag);
			if(!b) {
				System.out.println("出错了----");
				System.exit(0);
			}else {
				list.clear();
			}
		}
		long end = System.currentTimeMillis();
		System.out.println("生成1000万条数据共花费"+(end-start)+"毫秒");
	}

public boolean insertMore(List<TUser> list,long flag) {
		String sql = "insert into tuser(id,name,sex,phone,password) values(?,?,?,?,?)";
		return affectRowMore(sql,list,flag);
	}

方法二:

通过BaseDao中的affectRowMore1方法进行数据的插入操作,插入的速度如下:


     * 通过拼接语句实现多条添加
     * 生成1万条数据共花费225毫秒
     * 生成10万条数据共花费1586毫秒
     * 生成100万条数据共花费14017毫秒
     * 生成1000万条数据共花费152127毫秒
     * 生成1亿条数据(因为数字过大,没有计算)

public void insertBenchMark1() {
		long start = System.currentTimeMillis();
		StringBuffer suffix = new StringBuffer();
		long row = 1;
		for (int j = 0; j < 1000; j++) {
			for (int i = 0; i < 10000; i++) {
				String uuid = UUID.randomUUID().toString();
				String name = uuid.substring(0, 4);
				int sex = -1;
				if(Math.random() < 0.51) {
					sex = 1;
				}else {
					sex = 0;
				}
				String phone = (String) RandomValue.getAddress().get("tel");
				suffix.append("(" + row + ",'" + name + "'," + sex + ",'" + phone + "','" + uuid + "'),");
				row++;
			}
			boolean b = userDao.insertMore1(suffix.substring(0, suffix.length()-1),j);
			if(!b) {
				System.out.println("出错了----");
				System.exit(0);
			}else {
				// 清空上一次添加的数据
				suffix = new StringBuffer();
			}
		}
		long end = System.currentTimeMillis();
		System.out.println("生成1000万条数据共花费"+(end-start)+"毫秒");
	}

public boolean insertMore1(String sql_suffix,long flag) {
		String sql_prefix = "insert into tuser(id,name,sex,phone,password) values ";
		return affectRowMore1(sql_prefix + sql_suffix,flag);
	}

总结:

方法一和方法二很类同,唯一不同的是方法一采用的是“insert into tb (...) values (...);insert into tb (...) values (...);...”的方式执行插入操作,方法二则是“insert into tb (...) values(...),(...)...;”的方式。

通过测试的对比,方法二比方法一快了近5倍。
原文:https://blog.csdn.net/qq_41204714/article/details/85634371 



版权声明 : 本文内容来源于互联网或用户自行发布贡献,该文观点仅代表原作者本人。本站仅提供信息存储空间服务和不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权, 违法违规的内容, 请发送邮件至2530232025#qq.cn(#换@)举报,一经查实,本站将立刻删除。
原文链接 :
相关文章
  • 深入了解MySQL中的慢查询
    一、什么是慢查询 什么是MySQL慢查询呢?其实就是查询的SQL语句耗费较长的时间。 具体耗费多久算慢查询呢?这其实因人而异,有些公司慢
  • MySQL中with rollup的用法及说明

    MySQL中with rollup的用法及说明
    MySQL with rollup的用法 当需要对数据库数据进行分类统计的时候,往往会用上groupby进行分组。 而在groupby后面还可以加入withcube和withrollup等关
  • mysql分组统计并求出百分比的方法

    mysql分组统计并求出百分比的方法
    mysql分组统计并求出百分比 1、mysql 分组统计并列出百分比 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 SELECT point_id, pname_cn, play_
  • 30种SQL语句优化的方法总结
    1)对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。 2)应尽量避免在 where 子句中使用!=或操作符
  • 达梦数据库获取SQL实际执行计划的方法

    达梦数据库获取SQL实际执行计划的方法
    环境说明: 操作系统:银河麒麟V10 数据库:DM8 相关关键字:DM数据库、SQL实际执行计划 一、set autotrace trace disql下执行set autotrace trace开启
  • MySQL数据库约束的介绍

    MySQL数据库约束的介绍
    基本介绍 约束用于确保数据库的数据满足特定的商业规则 在mysql中,约束包括:not null,unique,primary key,foreign key 和check5种 1.primary key(主键
  • MySQL索引的介绍

    MySQL索引的介绍
    1. MySQL 索引的最左前缀原则 左前缀原则是联合索引在使用时要遵循的原则,查询索引可以使用联合索引的一部分,但是必须从最左侧开始。
  • windows下Mysql多实例部署的操作方法
    当存在多个项目的时候,需要同时部署时,且只有一台服务器时,哪么就需要部署Mysql多个实例,原理很简单,多个mysql服务运行使用不同的
  • MySQL客户端/服务器运行架构介绍

    MySQL客户端/服务器运行架构介绍
    之前对MySQL的认知只限于会写些SQL,本篇开始进行对MySQL进行深入的学习,记录和整理下自己对MySQL不熟悉的地方。如果有需要可以关注我的
  • mysql8.0主从复制搭建与配置方案

    mysql8.0主从复制搭建与配置方案
    mysql主从搭建 环境:ubuntu20.04.1,mysql:8.0.22。 主:192.168.87.3 备:192.168.87.6 安装数据库 1 2 3 sudo apt-get install mysql-server sudo apt-get install mysql
  • 本站所有内容来源于互联网或用户自行发布,本站仅提供信息存储空间服务,不拥有版权,不承担法律责任。如有侵犯您的权益,请您联系站长处理!
  • Copyright © 2017-2022 F11.CN All Rights Reserved. F11站长开发者网 版权所有 | 苏ICP备2022031554号-1 | 51LA统计