Tag: 备份

Windows Server 2012 R2 VM备份失败,存储空间不足,无法创build卷影副本存储文件或其他卷影副本数据

在具有IBM x3550的群集中的IBM x3650上首次遇到此问题以进行故障转移,但是,在运行HyperV而不是群集的一部分的服务器上,此问题是可重现的。 当我尝试使用服务器备份实用程序从VM内部运行基于VM的备份到E:驱动器(它是附加的vhdx文件)时。 它失败,这个错误 备份无法完成。 没有足够的磁盘空间在存储位置创build卷影副本。 请确保为所有要备份的卷提供创build卷影副本所需的最小磁盘空间。 这适用于备份存储目标和备份中包含的卷。 最低要求:对于小于500兆字节的卷,最小为50兆字节的可用空间。 对于超过500兆字节的卷,最小值为320兆字节的可用空间。 build议:如果卷大小超过1 GB,则每个卷至less有1 GB的可用磁盘空间。 详细错误:存储空间不足,无法创build卷影副本存储文件或其他卷影副本数据。 在事件查看器中,我看到这个错误 EventID:521在“TIME”启动的备份操作失败,因为创build正在备份的卷的卷影副本的卷影复制服务操作失败,并显示以下错误代码“0x80780119”。 请查看解决scheme的事件详细信息,然后在问题解决后重新运行备份操作。 在使用Server 2012 R2 MSDN副本进行testing设置之前,使用我们的批量许可证副本服务器进行生产之前,未发生此问题。 所以作为testing,我在运行HyperV的主机(MSDN)服务器上安装了两个虚拟机,一个虚拟机使用我们的MSDN副本,另一个使用我们的服务器批量许可证副本,安装非常简单,安装Windows备份,将VHDx文件附加为E:dive尝试裸机备份。 MSDN副本可以执行裸机备份。 批量许可证复制失败,出现上述错误。 有其他人遇到这个问题吗? 或者有什么想法可以查看两个停止备份完成的虚拟机之间的区别? 编辑: 我已经在两台不同的服务器上validation了这一点,安装了MSDN副本服务器2012 R2的虚拟机工作用于裸机备份,与已购买的批量许可证副本服务器2012 R2安装的虚拟机不适用于裸机备份,另一位信息服务器,无法执行裸机备份,它能够备份C:驱动器罚款,直到我打到裸机备份,它失败了。 我发现这个post是类似于我的问题,但是当我尝试修复,并试图恢复VM的Windows PE系统映像恢复说,它找不到图像恢复。 https://superuser.com/questions/663782/windows-8-1-insufficient-storage-available-to-create-shadow-copy

如何在频繁的postgres备份场景中最小化带宽?

我正在寻找非常频繁的备份(每小时)postgres数据在几个虚拟机(比如说20-50)对同一个档案服务器。 这里有更多的数据,如果需要的话:理想情况下,系统应该支持所有虚拟机上的80到200个数据库的负载。 数据库很小(从10MB到100MB)到中等大小(500MB – 2GB),由百分之一表组成,这些表中的一小部分可以很容易地包含数千行,高达大约一百万行。 对数据库的更改通常是新logging,有些更新,没有太多的删除。 带宽将是100Mbits / s。 正如我已经使用增量备份( rsync )的标准文件系统这样做,我想知道是否可以通过postgres数据库备份实现类似的东西。 我有几个可能的select: 我可以select把数据库放在可快照的文件系统上( aufs docker style, ZFS , btrfs ,但是其中一些看起来确实减慢了postgres的速度)。 如果需要,我准备好使用WAL 如果需要的话,只能在数据库级别进行备份会更好。 因为我不需要备份整个postgres数据,只有客户数据库。 我在postgres服务器上有一些可以保留中间备份的磁盘空间。 我可以在虚拟机上承担一些合理的CPU工作负载,但是宁愿在备份服务器上最小化它,因为它会增加更多的数据库来备份。 我并不是在寻找连续备份或PITR恢复选项。 我的备份服务器有一个基于文件的系统(brfs)来执行高效的备份定期快照。 这很好。 我想过: 在SQL中使用rsync与pg_dump本地组合到服务器,但是我不确定我应该使用哪种不同的格式来保持最高的效率。 使用可快照的文件系统,允许在块级别上发送二进制差异(btrfs和ZFS擅长),使用或不使用本地转储(关于要使用的备份格式相同的问题)。 我已经知道了pg_rman的存在,我不知道它是否可以依赖,设置和各种过程似乎比pg_dump稍重。 它会支持只有增量备份吗? 我们可以在备份方面有一个实际的格式吗? 还有增量备份达到小带宽的另一种方式吗? 那么… 我怎么能在我的postgres备份scheme中将带宽缩小 ?

带有通配符和子path的Robocopy / xd

我不认为这个确切的问题之前已经问过(我看了)。 我的备份服务器使用Robocopy运行一个脚本,我想排除那些不需要备份的文件,具体来说: *\AppData\Local\Google *\AppData\Local\Microsoft\Windows *\AppData\Local\NVIDIA *\AppData\Local\Temp *\AppData\LocalLow\Google (所有这些都有一百万个微小的caching文件需要大量的时间进行分析,但不需要恢复;大部分的增量备份运行时间正在处理这些文件) “\ AppData …”之前的path根据计算机名称,用户名(每台计算机上的多个用户)以及该计算机上的文件夹结构(并非每个人都拥有c :)上的所有数据)而有所不同。 为了简单起见,我有一个名为_exclude的环境variables,我在每次调用Robocoy时使用: SET _exclude= /XD *AppData\Local\Google *AppData\Local\Temp […etc] 我不想排除每个包含“AppData”或“Local”或“Google”的目录,因为这会排除有价值的数据。 只是那些特定的子path。 我已经试过,没有引导'\',有和没有双引号的path,有/没有'*',以及这些排列。 有没有办法使Robocopy的这个工作,没有硬编码每台机器上的每个用户的特定path?

完整的数据备份到Amazon S3

我有一个在Digital Ocean上托pipe的Ubuntu服务器,已经超过了现有的备份解决scheme。 我使用的堆栈的相关部分是Node.js,MongoDB和Elasticsearch。 到目前为止,已经通过转储整个MongoDB数据库,保存ESconfiguration,并将所有其他文件(日志,代码本身等)复制到应用程序目录中来完成备份。 如果是本月的第一个,所有的用户文件也被复制,否则只有从第一个月开始才添加文件。 所有这些都被压缩成一个文件并上传到Amazon S3。 数据大小已达到这个过程需要太多的磁盘空间,文件不能一次上传到S3。 什么是这个大小的应用程序的下一个级别(8 GB的用户文件,125,000用户,3,000其他文档,所有searchES)? 我明白基于意见的问题是不正确的服务器故障。 我不是在征求意见,只是一个正常的,具有成本效益的解决scheme是适用于这种规模的应用程序。 更新:这是我试图使用Duplicity与脚本和configuration的相关部分。 我使用Node来pipe理备份,因为它适合我现有的日志logging解决scheme,已经计划在低活动时间与其他所有内容保持一致,并且可以在各个操作系统之间移植。 节点脚本,日志logging当然需要改进: // Walks a directory recursively and returns a flat list of files function walkDir() {}; // Node based rm -rf function rmrf() {}; exec("mongodump –out dump", { cwd: process.cwd() }, function(err, dta) { if (err) return log("Error backing up: couldn't […]

转换为HTML Powershell的输出

我一直在使用Powershell脚本来生成Windows备份事件的电子邮件。 问题是格式看起来不好。 Subject: Computer name status [backup was successful] Tuesday, December 29, 2015 2:55 AM Index : 19160 EntryType : Warning InstanceId : 4099 Message : Backup was cancelled. Category : (0) CategoryNumber : 0 ReplacementStrings : {} Source : Windows Backup TimeGenerated : 29-Dec-15 12:42:35 PM TimeWritten : 29-Dec-15 12:42:35 PM UserName : 我想要一个丰富多彩的HTML报告。 […]

备份后的Hyper-V快照(StorageCraft ShadowProtect)

我希望有一些具有Hyper-V备份经验的人可以帮助我。 我们正在使用Storagecraft ShadowProtect来备份具有2个Hyper-V虚拟机的服务器。 我们每天进行增量备份和每周完整备份。 我遇到的问题是,每个备份似乎都为每个虚拟机在Hyper-V中创build一个快照,每次发生这种情况时,通常会在Hyper-V中创build新的差异磁盘映像。 长话短说,一两个星期后,我们发现pipe理程序上的磁盘已满,我们需要closures虚拟机以将这些快照整合到主磁盘映像中。 我们正在通过简单地closures虚拟机几个小时并允许整合来解决这个问题,但是我们理想的情况是希望find一种不需要的方法。 任何人都可以为我介绍一下这个过程吗? 是否必须定期closures虚拟机以确保整合发生在与HyperV相同的过程中? 或者是我不知道的事情? 我也testing过使用内置的Windows备份,同样的事情发生。 任何帮助,将不胜感激。 Muchos gracias。

Samba服务器上的SMB Windows备份的只读模式,以防止encryption/操作

encryption木马似乎只是另一个巨大的攻击。 我在这里有一个办公室,我负责接收Windows备份的samba服务器(使用Windows备份工具) 为了使备份数据的encryption不太可能,我为每个机器备份的文件夹的内容recursion地删除了w属性。 # This removes the w flag for all content of each backup folder for i in `ls -a | grep 0`;do chmod aw $i/* ;done 做到这一点,我意识到,备份工具需要dynamic存储某些信息,我重新允许以下文件夹的w属性 for i in `find -name Catalog`; do chmod -R u+w,g+w $i; done for i in `find -name SPPMetadataCache`; do chmod -R u+w,g+w $i; done 我的计划是,在没有备份的情况下,每天晚上运行。 其实我有两个问题: […]

混合文件服务器和可移动存储备份NAS

我需要一些硬件来支持额外的文件服务器空间(最好是1TB +),以及一个备份解决scheme,可以让我定期将驱动器或磁带存储在异地。 我可以使用单个服务器/ NAS轻松完成这项工作吗?还是应该真正考虑获得独立的NAS和磁带机?

如何将一些Mac备份到Linux服务器?

我目前使用带有–link-dest的rsync来获得一个增量的Time Machine-ish备份。 我常常将备份驱动器换出到外部站点。 其中一个来源是Mac,而从Linux机箱到Mac的rsyncing似乎工作,它相信它没有捕捉HFS +文件系统的所有细节,所以我不能真正做一个OS DVD完全恢复如果我需要。 另外,与具有类似数据量和文件数量的其他源相比,备份mac需要很长的时间。 所以,我想我会使用时间机器的Mac,并继续使用rsync的其他来源。 Time Machine是做这件事的最好方法吗? 如果是这样的话,我需要在Linux服务器上做些什么才能使其成为有效的Time Machine目标? 如果不是,你有什么build议? 我知道网上有几个(Time Machine到Linux)的页面,但是我认为ServerFault可以使用一个。

使用Subversion增量MySQL备份

我们的MySQL数据库服务器托pipe几十个数据库,转储文件大小从1到100 MB。 目前,我们的备份方法是mysqldump ,包装在shell脚本中,并从crontab运行。 这对我们来说很好。 唯一的主要缺点是存储转储文件的存储需求很大。 由于MySQL数据库转储是一个文本文件,当然我会考虑将其存储在一个版本控制系统中,比如Subversion。 我记得Subversion只存储每个提交中的文件的增量。 这种方法build议吗? 有什么我们应该注意的陷阱?

服务器问题集锦,包括 Linux(Ubuntu, Centos,Debian等)和Windows Server服务器.