JDBC(2)-操作BLOB类型字段和批量插入

前端之家收集整理的这篇文章主要介绍了JDBC(2)-操作BLOB类型字段和批量插入前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

一、操作BLOB类型字段

1. MysqL BLOB类型

  • MysqL中,BLOB是一个二进制大型对象,是一个可以存储大量数据的容器,它能容纳不同大小的数据。

  • 插入BLOB类型的数据必须使用PreparedStatement,因为BLOB类型的数据无法使用字符串拼接写的。

  • MysqL的四种BLOB类型(除了在存储的最大信息量上不同外,他们是等同的)

  • 实际使用中根据需要存入的数据大小定义不同的BLOB类型。

  • 需要注意的是:如果存储的文件过大,数据库性能会下降。

  • 如果在指定了相关的Blob类型以后,还报错:xxx too large,那么在MysqL的安装目录下,找my.ini文件加上如下的配置参数: max_allowed_packet=16M。同时注意:修改了my.ini文件之后,需要重新启动MysqL服务

2. 向数据表中插入大数据类型

其中的配置信息和上次使用的一样

@Test
	public void testInsert() throws Exception {
		Connection conn = JDBCUtils.getConnection();
		
		String sql = "insert into customers(name,email,birth,photo)values(?,?,?)";

		PreparedStatement ps = conn.prepareStatement(sql);
		
		ps.setObject(1,"冯宝宝");
		ps.setObject(2,"bao@qq.com");
		ps.setObject(3,"1000-10-10");
		// 图片
		FileInputStream is = new FileInputStream(new File("timg.jpg"));
		ps.setBlob(4,is);
		// 执行
		ps.execute();
		
		JDBCUtils.closeResource(conn,ps);
	}

3. 修改数据表中的Blob类型字段

Connection conn = JDBCUtils.getConnection();
String sql = "update customers set photo = ? where id = ?";
PreparedStatement ps = conn.prepareStatement(sql);

// 填充占位符
// 操作Blob类型的变量
FileInputStream fis = new FileInputStream("coffee.png");
ps.setBlob(1,fis);
ps.setInt(2,25);

ps.execute();

fis.close();
JDBCUtils.closeResource(conn,ps);

4. 从数据表中读取大数据类型

@Test
	public void testQuery() {
		Connection conn = null;
		PreparedStatement ps = null;
		InputStream is = null;
		FileOutputStream fos = null;
		ResultSet rs = null;
		try {
			conn = JDBCUtils.getConnection();
			
			String sql = "select id,name,photo from customers where id = ?";
		
			ps = conn.prepareStatement(sql);
			
			ps.setObject(1,19);
			// 有结果集
			rs = ps.executeQuery();
			if(rs.next()) {
				int id = rs.getInt("id");
				String name = rs.getString("name");
				String  email = rs.getString("email");
				Date birth = rs.getDate("birth");
				
				Customer cust = new Customer(id,birth);
				System.out.println(cust);
				
				// 将Blob字段下载下来,保存到本地,除了调用了getBinaryStream()方法,剩下的和二进制流差不多
				Blob photo = rs.getBlob("photo");
				 is = photo.getBinaryStream();
				 fos = new FileOutputStream("lin.jpg");
				byte[] buffer = new byte[1024];
				int len;
				while((len = is.read(buffer)) != -1) {
					fos.write(buffer,len);
				}
			}
		} catch (Exception e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
		}finally {
			try {
				if(is != null)
					is.close();
			} catch (IOException e) {
				// TODO Auto-generated catch block
				e.printStackTrace();
			}
			
			try {
				if(fos != null)
					fos.close();
			} catch (IOException e) {
				// TODO Auto-generated catch block
				e.printStackTrace();
			}
			
			JDBCUtils.closeResource(conn,ps,rs);
		}
	}

二、批量插入

1. 批量执行sql语句

当需要成批插入或者更新记录时,可以采用Java的批量更新机制,这一机制允许多条语句一次性提交给数据库批量处理。通常情况下比单独提交处理更有效率

JDBC的批量处理语句包括下面三个方法

  • addBatch(String):添加需要批量处理的sql语句或是参数;
  • executeBatch():执行批量处理语句;
  • clearBatch():清空缓存的数据

通常我们会遇到两种批量执行sql语句的情况:

  • 多条sql语句的批量处理;
  • 一个sql语句的批量传参;

2. 例如:插入20000条数据

CREATE TABLE goods(
id INT PRIMARY KEY AUTO_INCREMENT,NAME VARCHAR(20)
);

这个就不演示了,太low

Connection conn = JDBCUtils.getConnection();
Statement st = conn.createStatement();
for(int i = 1;i <= 20000;i++){
	String sql = "insert into goods(name) values('name_' + "+ i +")";
	st.executeUpdate(sql);
}

3. 方式一:使用PreparedStatement

JDBCUtils在上一篇写过,获取连接以及释放连接

@Test
	public void testInsert() {
		
		Connection conn = null;
		PreparedStatement ps = null;
		try {
			// 开始时间
			long start = System.currentTimeMillis();
			
			conn = JDBCUtils.getConnection();
			
			String sql = "insert into goods(name) values(?)";
			
			ps = conn.prepareStatement(sql);
			
			for(int i=1; i <= 20000; i++) {
				ps.setObject(1,"name_"+i);
				
				ps.execute();
			}
			
			// 结束时间
			long end = System.currentTimeMillis();
			
			System.out.println("花费的时间:"+(end-start)); //903016
		} catch (Exception e) {
			e.printStackTrace();
		}finally {
			JDBCUtils.closeResource(conn,ps);
		}
	}

可以看到,花费的时间是很长的

4. 方式二:xxxBatch()

需要准备:

  • MysqL服务器默认是关闭批处理的,我们需要通过一个参数,让MysqL开启批处理的支持
    • ?rewriteBatchedStatements=true 写在配置文件的url后面
  • 使用更新的MysqL 驱动:MysqL-connector-java-5.1.37-bin.jar
  • 使用 addBatch() / executeBatch() / clearBatch()

需要注意,因为之前用的MysqL驱动是MysqL-connector-java-5.1.7-bin.jar,所以先把这个

然后再重新导入MysqL-connector-java-5.1.37-bin.jar这个

下面就可以写代码了,还是在方式一的基础上:

@Test
	public void testInsert1() {
		
		Connection conn = null;
		PreparedStatement ps = null;
		try {
			// 开始时间
			long start = System.currentTimeMillis();
			
			conn = JDBCUtils.getConnection();
			
			String sql = "insert into goods(name) values(?)";
			
			ps = conn.prepareStatement(sql);
			
			for(int i=1; i <= 20000; i++) {
				ps.setObject(1,"name_"+i);
				
				// 1. 攒sql
				ps.addBatch();
				
				if(i % 500 == 0) {
					// 2. 执行batch
					ps.executeBatch();
					
					// 3. 清空batch
					ps.clearBatch();
				}
				
			}
			
			// 结束时间
			long end = System.currentTimeMillis();
			
			System.out.println("花费的时间:"+(end-start)); //5399
		} catch (Exception e) {
			e.printStackTrace();
		}finally {
			JDBCUtils.closeResource(conn,ps);
		}
	}

花费的时间明显少了很多

5. 方式三:终极版

  • 方式三:在方式二的基础上操作
  • 使用Connection 的 setAutoCommit(false) / commit()
@Test
		public void testInsert2() {
			
			Connection conn = null;
			PreparedStatement ps = null;
			try {
				// 开始时间
				long start = System.currentTimeMillis();
				
				conn = JDBCUtils.getConnection();

				// 设置不允许自动提交数据
				conn.setAutoCommit(false);
				
				String sql = "insert into goods(name) values(?)";
				
				ps = conn.prepareStatement(sql);
				
				for(int i=1; i <= 20000; i++) {
					ps.setObject(1,"name_"+i);
					
					// 1. 攒sql
					ps.addBatch();
					
					if(i % 500 == 0) {
						// 2. 执行batch
						ps.executeBatch();
						
						// 3. 清空batch
						ps.clearBatch();
					}
				}
				// 提交数据
				conn.commit();
				
				// 结束时间
				long end = System.currentTimeMillis();
				
				System.out.println("花费的时间:"+(end-start)); //2223
			} catch (Exception e) {
				e.printStackTrace();
			}finally {
				JDBCUtils.closeResource(conn,ps);
			}
		}

速度几乎又提升了一倍

猜你在找的JDBC相关文章