1. 阿里云>
  2. 云栖社区>
  3. 主题地图>
  4. C>
  5. 插入优化

当前主题:插入优化

【从入门到放弃-ZooKeeper】ZooKeeper实战-分布式队列

前言 上文【从入门到放弃-ZooKeeper】ZooKeeper入门中,我们学习了ZooKeeper的简单安装和cli使用。 接下来我们开始基于java API的实战编程。本文先来写一个分布式队列的代码实现。 设计 我们来写一个先进先出的分布式无界公平队列。

阅读全文

MySQL迁移到Cassandra

翻译原文:https://academy.datastax.com/planet-cassandra/mysql-to-cassandra-migration 原作者:Michael Kjellman is a San Francisco based Sof

阅读全文

如何在 Apache Flink 中使用 Python API?

作者:孙金城(金竹)整理:韩非 本文根据 Apache Flink 系列直播课程整理而成,由 Apache Flink PMC,阿里巴巴高级技术专家 孙金城 分享。重点为大家介绍 Flink Python API 的现状及未来规划,主要内容包括:Apache

阅读全文

105道BAT最新Java面试题(MySQL+Redis+nginx+ookeeper+MongoDB)

MySQL面试题 主键 超键 候选键 外键 2.数据库事务的四个特性及含义 视图的作用,视图可以更改么? drop,delete与truncate的区别 索引的工作原理及其种类 连接的种类 数据库范式 数据库优化的思路 存储过程与触发器的区别 Redis面试

阅读全文

Java并发系列(6)java关键字-final

本站小福利 点我获取阿里云优惠券 原文作者:github:CL0610/Java-concurrency 免责声明: 1.本文所转载文章均来自公开网络。 2.如果出处标注有误或侵犯到原著作者权益,请联系删除。 3.转载文章请注明原文链接和作者,否则产生的任何

阅读全文

Java上传csv文件踩坑记

前言 最近在做交通优化分析工具的产品时,有一个需求是用户上传一份包含路段信息的csv文件,后端需要解析csv的文件内容并将信息插入数据库中。这是一个常规的操作,也不复杂,但是在实现的过程中却踩到了一个utf-8 BOM的坑,随手记录一下。 实现方式 完整的实

阅读全文

HIVE优化浅谈

作者:邓力,entobit技术总监,八年大数据从业经历,由一代HADOOP入坑,深耕云计算应用领域,由从事亚马逊EMR和阿里云EMR应用开发逐步转入大数据架构领域,对大数据生态及框架应用有深刻理解。 引言 随着商务/运营同学执行的HQL越来越多,整体HIVE

阅读全文

Java后端面经总结:拿下蚂蚁金服美团头条 offer 秘诀

笔者在面过 猿辅导,去哪儿,旷视, 陌陌,头条, 阿里, 快手, 美团, 腾讯之后,除了收获一大堆面试问题,还思考到如何成为面试官眼中的"爱技术,爱思考,靠谱,有潜力候选人的"一些"套路". 面试问题(Java 后端) 猿辅导 1.八皇后问题 2.求二叉树的

阅读全文

插入优化相关问答

查看更多 提问题

问一下 postgresql 执行多张表join的速度 很慢,然而将结果插入数据的速度很慢,有什么优化的方法吗 ? 把insert into table 修改为 create table 这样做可以吗?

问一下 postgresql 执行多张表join的速度 很慢,然而将结果插入数据的速度很慢,有什么优化的方法吗 ? 把insert into table 修改为 create table 这样做可以吗?本问题来自云栖社区【PostgreSQL技术进阶社群】

阅读全文

Spark 【问答合集】

如何使用spark将kafka主题中的writeStream数据写入hdfs? https://yq.aliyun.com/ask/493211 当Spark在S3上读取大数据集时,在“停机时间”期间发生了什么? https://yq.aliyun.co

阅读全文

将大量数据从SQL Server传输和转换为Azure SQL Server的最佳方法。Azure数据工厂,HDInsight等

我想将客户现场服务器Client上安装的SQL Server数据库中的20 GB SQL数据传输到我们的Azure SQL Server Source,在具有200 DTU性能的S4上,每月320美元。在进行初始设置时,我们设置了一个Azure数据工厂,它通过

阅读全文

关于hibernate 批量数据插入 mysql批量插入数据优化

好吧,今天问一个Hibernate大批量数据插入的问题。 前些日子又遇到一个问题。 解析csv文件, 插入数据库, 直接使用session.createSQLQuery()的原生sql插入:insert into 大致6W条数据,用了2mi

阅读全文

mongodb千万级数据插入如何优化?

从mysql数据库通过java程序导入单表1300w到mongodb,花了大概50分钟,前1000w条数据中每100w条大概要3分钟,之后的300多w条就差不多每100w条要5到6分钟,之后再从其他的mysql表里面导入数据就会越来越慢,请问可以从那些方面可以

阅读全文

PHP用tablestore的batchWriteRow插入1000条数据要怎么优化?

PHP用tablestore的batchWriteRow插入1000条数据要怎么优化?

阅读全文

请教大神关于foreach 嵌套循环,性能优化的问题

先是一个循环产品表 查询每个产品表按条件筛选出来的产品。 然后再把得获取的产品循环一条一条的插入新建的一个表中。 刚开始的时候我用的两个foreach实现这个功能了,但是数据量太大了,一次执行的结果就是内存不够用,直接 504 Gateway Time

阅读全文

千万级的mysql数据库如何做性能优化

目前的业务场景如下: 有一个账单数据库mysql的,每天从信息源单位交换一个城市的水电煤账单数据,每天的量非常大(最高一天有20w,一个星期有100w,一个月有400多w),目前程序已经运行了大半年了,数据库里面的数据是越来越多已达到两千多万,后面肯定会更多

阅读全文