使用T-SQL配置日志传送

简介:

日志传送(log shipping)主要基于SQL Server代理,使用定时作业来完成,另外在配置日志传送之前必须要创建共享文件夹,用于辅助服务器访问。这里我们假设有数据库logTrans1需要进行日志传送,共享文件夹为“C:\data”,在T-SQL中配置日志传送主要有以下几步操作:

(1)备份主数据库并在辅助服务器上还原主数据库的完整备份,初始化辅助数据库。具体操作如代码:

复制代码
backup   database  logTrans1  -- 在主数据库上备份 
to   disk = ' c:\logt.bak '  
-- 以下是将数据库还原到辅助数据库上 
restore   database  logTrans2 
from   disk = ' c:\logt.bak '  
with  NORECOVERY, 
move 
' logTrans '   to   ' c:\logTrans2.mdf '
move 
' logTrans_log '   to   ' c:\logTrans2.ldf '  
复制代码

(2)在主服务器上,执行sp_add_log_shipping_primary_database以添加主数据库。存储过程将返回备份作业ID和主ID,具体SQL脚本如代码:

复制代码
DECLARE   @LS_BackupJobId   AS   uniqueidentifier  
DECLARE   @LS_PrimaryId   AS   uniqueidentifier  
EXEC  master.dbo.sp_add_log_shipping_primary_database 
@database   =  N ' logTrans1 '  
,
@backup_directory   =  N ' D:\data '  
,
@backup_share   =  N ' \\10.101.10.66\data '  
,
@backup_job_name   =  N ' LSBackup_logTrans1 '  
,
@backup_retention_period   =   1440  
,
@monitor_server   =  N ' localhost '  
,
@monitor_server_security_mode   =   1  
,
@backup_threshold   =   60  
,
@threshold_alert_enabled   =   0  
,
@history_retention_period   =   1440  
,
@backup_job_id   =   @LS_BackupJobId  OUTPUT 
,
@primary_id   =   @LS_PrimaryId  OUTPUT 
,
@overwrite   =   1  

复制代码

(3)在主服务器上,执行sp_add_jobschedule以添加使用备份作业的计划。为了能够尽快看到日志传送的效果,这里将日志备份的频率设置为2分钟一次。但是在实际生产环境中,一般是用不到这么高的执行频率的。添加计划的脚本如代码:

复制代码
DECLARE   @schedule_id   int  
EXEC  msdb.dbo.sp_add_jobschedule  @job_name   = N ' LSBackup_logTrans1 '
@name = N ' BackupDBEvery2Min '
@enabled = 1
@freq_type = 4
@freq_interval = 1
@freq_subday_type = 4
@freq_subday_interval = 2
@freq_relative_interval = 0
@freq_recurrence_factor = 1
@active_start_date = 20080622
@active_end_date = 99991231
@active_start_time = 0
@active_end_time = 235959
@schedule_id   =   @schedule_id  OUTPUT 
select   @schedule_id  
复制代码

【注意:sp_add_jobschedule存储过程是在msdb数据库中,在其他数据库中是没有该存储过程的。】

(4)在监视服务器上,执行sp_add_log_shipping_alert_job以添加警报作业。此存储过程用于检查是否已在此服务器上创建了警报作业。如果警报作业不存在,此存储过程将创建警报作业并将其作业ID添加到log_shipping_monitor_alert表中。默认情况下,将启用警报作业并按计划每两分钟运行一次。添加警报作业如代码:

USE  master 
GO  
EXEC  sp_add_log_shipping_alert_job; 

(5)在主服务器上,启用备份作业。启用作业使用sp_update_job存储过程,只需要输入作业名并设置状态为1即可。具体SQL脚本如代码:

EXEC  msdb.dbo.sp_update_job 
@job_name = ' LSBackup_logTrans1 '
@enabled = 1  

(6)在辅助服务器上,执行sp_add_log_shipping_secondary_primary,提供主服务器和数据库的详细信息。此存储过程返回辅助ID以及复制和还原作业ID,具体SQL脚本如代码:

复制代码
DECLARE   @LS_Secondary__CopyJobId   uniqueidentifier  
DECLARE   @LS_Secondary__RestoreJobId   uniqueidentifier  
DECLARE   @LS_Secondary__SecondaryId   uniqueidentifier  
EXEC  master.dbo.sp_add_log_shipping_secondary_primary 
@primary_server   =  N ' 10.101.10.66 '  
,
@primary_database   =  N ' logTrans1 '  
,
@backup_source_directory   =  N ' \\10.101.10.66\data '  
,
@backup_destination_directory   =  N ' D:\log '  
,
@copy_job_name   =  N ' LSCopy_logTrans1 '  
,
@restore_job_name   =  N ' LSRestore_logTrans2 '  
,
@file_retention_period   =   1440  
,
@copy_job_id   =   @LS_Secondary__CopyJobId  OUTPUT 
,
@restore_job_id   =   @LS_Secondary__RestoreJobId  OUTPUT 
,
@secondary_id   =   @LS_Secondary__SecondaryId  OUTPUT 
复制代码

(7)在辅助服务器上,执行sp_add_jobschedule以设置复制和还原作业的计划。这里一般将复制和还原作业计划的频率设置来和日志备份的作业频率相同,所以此处将这两个作业的频率设置为每2分钟执行一次,具体SQL脚本如代码:

复制代码
DECLARE   @schedule_id   int  
-- 设置复制作业计划 
EXEC  msdb.dbo.sp_add_jobschedule 
@job_name = N ' LSCopy_logTrans1 '
@name = N ' CopyEvery2Min '
@enabled = 1
@freq_type = 4
@freq_interval = 1
@freq_subday_type = 4
@freq_subday_interval = 2
@freq_relative_interval = 0
@freq_recurrence_factor = 1
@active_start_date = 20080622
@active_end_date = 99991231
@active_start_time = 0
@active_end_time = 235959
@schedule_id   =   @schedule_id  OUTPUT 
select   @schedule_id  
-- 设置还原作业的计划 
EXEC  msdb.dbo.sp_add_jobschedule 
@job_name = N ' LSCopy_logTrans1 '
@name = N ' RestoreEvery2Min '
@enabled = 1
@freq_type = 4
@freq_interval = 1
@freq_subday_type = 4
@freq_subday_interval = 2
@freq_relative_interval = 0
@freq_recurrence_factor = 1
@active_start_date = 20080622
@active_end_date = 99991231
@active_start_time = 0
@active_end_time = 235959
@schedule_id   =   @schedule_id  OUTPUT 
select   @schedule_id  
复制代码

(8)在辅助服务器上,执行sp_add_log_shipping_secondary_database以添加辅助数据库,具体操作脚本如代码:

 

复制代码
EXEC  master.dbo.sp_add_log_shipping_secondary_database 
@secondary_database   =  N ' logTrans2 '  
,
@primary_server   =  N ' 10.101.10.66 '  
,
@primary_database   =  N ' logTrans1 '  
,
@restore_delay   =   0  
,
@restore_mode   =   1  
,
@disconnect_users   =   0  
,
@restore_threshold   =   45  
,
@threshold_alert_enabled   =   0  
,
@history_retention_period   =   1440  
复制代码

(9)在主服务器上,执行sp_add_log_shipping_primary_secondary向主服务器添加有关新辅助数据库的必需信息,具体SQL脚本如代码:

EXEC  master.dbo.sp_add_log_shipping_primary_secondary 
@primary_database   =  N ' logTrans1 '  
@secondary_server   =  N ' 10.101.10.67 '   -- 辅助数据库的IP 
@secondary_database   =  N ' logTrans2 '  

(10)在辅助服务器上,启用复制和还原作业。启用作业仍然使用sp_update_job存储过程,具体操作如代码:

复制代码
EXEC  msdb.dbo.sp_update_job 
@job_name = ' LSCopy_logTrans1 '
@enabled = 1  

EXEC  msdb.dbo.sp_update_job 
@job_name = ' LSRestore_logTrans2 '
@enabled = 1  
复制代码

通过以上10部操作就完成了对日志传送的配置。现在每隔2分钟,系统将会把主服务器中的日志备份到共享文件夹中,辅助服务器访问共享文件夹将日志备份复制到本地硬盘上,然后由还原作业将复制到本地的日志还原到数据库,从而完成了日志的传送。用户可以在共享文件夹和辅助服务器的本地复制文件夹中看到备份的日志文件。

【说明:在SSMS中可以通过右击对应的作业,在弹出的右键菜单中选择“查看历史记录”选项来查看该作业是否正常运行。如果所有日志传送正常运行,则说明日志传送正常。】

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
26天前
|
监控 Serverless 数据库
Serverless 应用引擎常见问题之biphon-education-配置了SLS后一直重启如何解决
Serverless 应用引擎(Serverless Application Engine, SAE)是一种完全托管的应用平台,它允许开发者无需管理服务器即可构建和部署应用。以下是Serverless 应用引擎使用过程中的一些常见问题及其答案的汇总:
28 5
|
1月前
|
存储 JSON 监控
可以通过配置Filebeat来将Higress日志持久化到磁盘
【2月更文挑战第10天】可以通过配置Filebeat来将Higress日志持久化到磁盘
27 4
|
2月前
|
Java
flume的log4j.properties配置说明
flume的log4j.properties配置说明
|
25天前
|
SQL JSON Kubernetes
Seata常见问题之服务端 error日志没有输出,客户端执行sql报错如何解决
Seata 是一个开源的分布式事务解决方案,旨在提供高效且简单的事务协调机制,以解决微服务架构下跨服务调用(分布式场景)的一致性问题。以下是Seata常见问题的一个合集
97 0
|
1月前
|
SQL 资源调度 Oracle
Flink CDC产品常见问题之sql运行中查看日志任务失败如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
2月前
|
应用服务中间件
weblogic配置、修改日志保存目录、配置滚动日志
weblogic配置、修改日志保存目录、配置滚动日志
|
2月前
|
SQL 数据采集 JSON
弱结构化日志 Flink SQL 怎么写?SLS SPL 来帮忙
弱结构化日志 Flink SQL 怎么写?SLS SPL 来帮忙
125157 136
|
17天前
|
Java
使用Java代码打印log日志
使用Java代码打印log日志
73 1
|
18天前
|
Linux Shell
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
72 1
|
22天前
|
SQL 关系型数据库 MySQL
MySQL数据库,可以使用二进制日志(binary log)进行时间点恢复
对于MySQL数据库,可以使用二进制日志(binary log)进行时间点恢复。二进制日志是MySQL中记录所有数据库更改操作的日志文件。要进行时间点恢复,您需要执行以下步骤: 1. 确保MySQL配置文件中启用了二进制日志功能。在配置文件(通常是my.cnf或my.ini)中找到以下行,并确保没有被注释掉: Copy code log_bin = /path/to/binary/log/file 2. 在需要进行恢复的时间点之前创建一个数据库备份。这将作为恢复的基准。 3. 找到您要恢复到的时间点的二进制日志文件和位置。可以通过执行以下命令来查看当前的二进制日志文件和位