Articles of nfs

NFS导出零星缓慢

nfs服务器导出到300-400个客户端之间。 假设客户端A和B正在从nfs服务器同时复制同一个文件。 客户端A将做100mb / s,客户端B将做1-2mb / s。 然后一天之后,速度问题就会逆转。 客户端A下降到1-2mb / s。 我确定客户端的带宽没有饱和。 当它做1-2 / mbs时,我甚至努力做一个简单的LS或CD 。 在传输速度较慢的时候,dmesg或/ var / log / messages中没有任何内容。 eth0 RX数据包丢弃率在服务器上稳步增加。 NFS服务器: eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 9000 inet xxxx netmask 255.255.255.0 broadcast xxxx inet6 fe80::225:b5ff:feff:b000 prefixlen 64 scopeid 0x20<link> ether 00:25:b5:ff:b0:00 txqueuelen 10000 (Ethernet) RX packets 943628558144 bytes 616933252471494 (561.0 TiB) RX errors […]

NFS:文件删除遇到延迟,而不是“覆盖”

我有一个情况,我的文件服务器(linux)通过NFS导出文件系统到数据库服务器(Linux)。 因此,文件服务器(FS)充当NFS服务器,数据库服务器(DBS)是客户端。 FS上的导出选项是rw,同步和挂载选项在星上是rw,sync,acdirmin = 0,acdirmax = 0,lookupcache = none,vers = 4。 我有一个进程将文件复制到FS上的NFS文件系统。 数据库使用此文件的内容进行自己的处理,不久之后,进程删除FS上的文件,并使用相同的文件名将第二个文件复制到相同的位置。 然后数据库应该使用第二个文件来做它的东西,但由于客户端的一些奇怪的原因,数据库仍然看到第一个文件。 只有在复制第二个文件之前删除第一个文件,才会发生这种情况。 客户端显示新文件有时需要几分钟的时间。 但是,如果我通过不删除它来replace第一个文件,而只是复制第二个文件并覆盖第一个文件,它将立即显示在客户端。 有谁知道是什么原因导致这个,我该怎么做才能使用“先删除”的方法工作?

NFS停留在ack循环中

我有一种情况,三个不同的NFS客户端之一会在一段时间后(某些天数)中断。 我发现破损的主机和服务器不断地发送'ack'数据包(达到100 + mb / s)。 双方都发送相同的数据包,双方都不会重发任何实际的数据。 1最终服务器将重置连接,NFS将在短时间内(2-4分钟)正常运行。 服务器重新启动将修复所有事情,直到数天后再次中断。 环境是其他环境的重复,其他NFS客户端从来没有这个问题(相同的操作系统和应用程序版本)。 在排除故障的同时,我看到wireshark将数据包报告为“TCP ACKed unseen segment”,但我不明白为什么。 数据包#28517有Ack = 2194563093和数据包#28513有Seq = 2194563093 …这是数据包被确认,对不对? 我做了另一个干净的捕捉,看起来是一样的,所以我不明白为什么它显示了这样的。 2 我主要查找debuggingNFS问题(客户端的SLES,服务器端的EMC VNX)的提示,并确认wireshark输出是错误的(否则这是我应该深入研究的实际线索)。 编辑:服务器和客户端在相同的交换机,相同的子网。

连接到NFS服务器失败?

当我尝试在vmware-vsphere中创build一个NAS数据存储(shareing_datastore)时,我总是有这个错误

在AWS EC2系统上使用NFS分区。 使用rsync上传文件会降低实例速度

我正在运行一个AWS EC2系统,在实例之间有一个共享的NFS分区(5x m3.medium)。 我正在上传一个不断增加的二进制文件,速度比我的最大带宽低10倍(在2.5MBpipe道上传250kBs),使用rsync –append 。 同时,我正在分析NFS分区上的文件,并使用MPI分配这些计算。 虽然rsync没有运行,但使用MPI的分析工作正常,需要5秒钟才能运行二进制文件。 当rsync正在运行时,实例之间的MPI通信会进行爬网,需要几个小时才能完成相同的任务。 分析脚本花费大量时间在MPI_File_read_at()命令上,读取NFS共享分区上的二进制文件。 当我停止rsync并重新运行分析时,速度是正常的。 我已经在这个问题上工作了几天,并没有取得太大的进展。 我不确定问题是在rsync文件上使用MPI还是通过NFS更新文件,或者是什么。 我已经明显地限制了rsync的带宽( rsync –bwlimit=X ),并且减速仍然发生。 我没有太多的这些工具的经验,但只是试图得到一个系统,目前的作品。 如果有人知道什么会导致这种滞后,或者我使用的这些方法之间的其他不兼容性,我将不胜感激。

集群模式Netapp – Snapmirror更改unix组

我正在尝试在两个集群模式netapp文件pipe理器之间设置snapmirror。 但是,一个在美国,另一个在中国。 作为安全措施,我们在这里设置了两个不同的UNIX组。 即我们在美国有users.usa,在中国有users.china。 users.usa不能查看users.china文件,反之亦然,中国没有人可以成为users.usa的用户。反之亦然。 因此,我可以将users.usa数据镜像到china,并将文件的unix组更改为users.china,也就是说有netapp选项吗? 另外,通过这样做,我会完全搞砸压缩/ snapmirror比较algorithm,因为这些文件在技术上是不同的,不是吗? 感谢这个,我们在两个文件pipe理器上都是在8.3上面。 本

首先不能rm / unlink文件,但可以在vim和写入文件之后

注意:看起来像将selinux设置为Permissive模式不会阻止此文件权限问题。 我们有一个运行CentOs 7.2.1511的开发虚拟机。 文件通过NFS(通过vagrant(virtualbox))与我们的主机(Mac)共享。 NFS共享是我们可以在主机上使用PHPStorm编辑代码。 如果我们使用SMB共享,​​这个问题不会突然出现,但是文件共享r / w性能会慢得令人不快。 stream浪者的分享设置是: config.vm.synced_folder "code", "/srv/client/code" , :nfs=>true, :mount_options => ['rw,noatime,nolock,vers=3,udp,fsc,actimeo=2,resvport,rsize=32768,wsize=32768'] 当运行git checkout x或者git clean -df ,我们会收到权限被拒绝的消息。 $ git clean -df warning: failed to remove modules/node_modules/acorn/bin/acorn warning: failed to remove modules/node_modules/acorn/bin/generate-identifier-regex.js … 运行ls -Z modules/node_modules/acorn/bin/acorn $ ls -Z modules/node_modules/acorn/bin/acorn -rwxr-xr-x. 503 games system_u:object_r:nfs_t:s0 modules/node_modules/acorn/bin/acorn 哪个是共享的正确用户/组以及正确的文件上下文,与可移动文件完全相同。 例如 $ ls -Z […]

小VMDK文件

我有一个全新的VMWare ESXi 6.5独立主机。 我创build了一个虚拟机,并在其上安装了Ubuntu 16.04.1服务器。 我注意到VMDK文件在安装后只有549字节。 VM运行得很好。 有人可以解释为什么VMDK文件是如此之小,安装的操作系统去了哪里? 以下是详细信息: 主机:ESXi 6.5 数据存储:Synology NFS共享 VM:1GB RAM,16GB精简configuration驱动器,名称:test2 操作系统:Ubuntu 16.04.1服务器,encryption的6GB LVM,VMWare工具安装 VMclosures时NFS文件夹中的文件: test2.nvram – 9 KB test2.vmsd – 0 KB test2.vmx – 4 KB test2.vmxf – 4 KB test2_0.vmdk – 1 KB vmware.log – 293 KB

无可奈何的检查一个目录

我有一个安装nfs份额的可靠的手册。 它首先确保目标目录存在: – name: create /mnt/tmp file: path=/mnt/tmp recurse=yes state=directory – name: mount nfs mount: src=10.0.0.2:/data/apache/htdocs name=/mnt/tmp fstype=nfs fstab=/etc/fstab state=mounted opts="user,rw,hard,intr,auto" 这个工作正常,我第一次运行的剧本,但如果我重新运行它挂在create /mnt/tmp任务。 我做错了吗? 我如何debugging问题? 我把剧本改成了这个,而这个问题用一种相当不合理的方式“解决”了: – name: check if /mnt/tmp exists stat: path=/mnt/tmp register: p – name: create /mnt/tmp when: not p.stat.exists file: path=/mnt/tmp recurse=yes state=directory – name: mount nfs mount: src=10.0.0.2:/data/apache/htdocs name=/mnt/tmp fstype=nfs […]

rpc.mountd :/ xxx和/ yyy首先使用相同的主机文件句柄

我使用s3fs-fuse在/yyy上安装了一个S3存储桶,而在/xxx上安装了一个正常的驱动器。 我用NFS导出,但是当客户端尝试安装时,我看到以下错误: rpc.mountd[pid]: /xxx and /yyy have same filehandle for <client_hostname>, using first 非s3挂载使用以下命令导出: /xxx client_hostname(async,no_root_squash,no_subtree_check,rw) 和S3的安装: /yyy client_hostname(async,no_root_squash,no_subtree_check,ro,fsid=1,crossmnt)