爱问知识人 爱问教育 医院库

SQL Server海量数据导入有什么快速方法吗?

首页

SQL Server海量数据导入有什么快速方法吗?


        

提交回答
好评回答
  • 2008-12-08 22:38:00
      这篇论坛文章详细讲解了SQL Server海量数据导入的最快方法,更多内容请参考下文:最近做某项目的数据库分析,要实现对海量数据的导入问题,就是最多把200万条数据一次导入sqlserver中,如果使用普通的insert语句进行写出的话,恐怕没个把小时完不成任务,先是考虑使用bcp,但这是基于命令行的,对用户来说友好性太差,实际不大可能使用;最后决定使用BULK INSERT语句实现,BULK INSERT也可以实现大数据量的导入,而且可以通过编程实现,界面可以做的非常友好,它的速度也很高:导入100万条数据不到20秒中,在速度上恐怕无出其右者。
      但是使用这种方式也有它的几个缺点:1。需要独占接受数据的表2。会产生大量的日志3。从中取数据的文件有格式限制但相对于它的速度来说,这些缺点都是可以克服的,而且你如果愿意牺牲一点速度的话,还可以做更精确的控制,甚至可以控制每一行的插入。对与产生占用大量空间的日志的情况,我们可以采取在导入前动态更改数据库的日志方式为大容量日志记录恢复模式,这样就不会记录日志了,导入结束后再恢复原来的数据库日志记录方式。
      具体的一个语句我们可以这样写:以下为引用的内容: alter database taxiset RECOVERY BULK_LOGGEDBULK INSERT taxi。。detail FROM 'e:\out。txt'WITH (?? DATAFILETYPE = 'char',?? FIELDTERMINATOR = ',',?? ROWTERMINATOR = '\n',?TABLOCK)alter database taxiset RECOVERY FULL 这个语句将从e:\out。
      txt导出数据文件到数据库taxi的detail表中。

    2008-12-08 22:38:00

类似问题

换一换
  • 程序设计 相关知识

  • 电脑网络技术
  • 电脑网络

相关推荐

正在加载...
最新资料 热门专题 热点推荐
  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200
  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200
  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200

热点检索

  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200
返回
顶部
帮助 意见
反馈

确定举报此问题

举报原因(必选):