Articles of 连接

连接拒绝了几个小时

我使用Linode服务器,并且在过去几年中已经运行了大约六个域,没有问题。 它运行Ubuntu 10.04和Apache。 今天,大约3个小时,所有的http请求被拒绝。 我能够没有问题地ssh,看了看Apache的错误日志,除了几十个“mysql服务器已经离开”错误以外,没有看到任何有趣的事情。 如果io速率非常高,系统设置为可以ping通,当Drupal站点执行mysql备份时会发生这种情况,但是现在还没有发生。 我也做了一个netstat -aon,并validation了80和8080的侦听器正在运行(Varnish on:80),尽pipe一些实例有TIME_WAIT而不是LISTEN。 重启几分钟后,一切恢复正常。 这可能是什么原因?

SLES11随机不可达单机

我正在经历一个非常奇怪的问题,现在我迷失了方向。 自从我的公司尝试切换到SUSE以来,我已经设置了几台Suse SLES 11 SP2机器。 而每一台装有SLES 11的机器都有这个特定的问题: 一旦安装,一切工作正常。 但是,如果通过SSH从Debian机器(Squeeze和Wheezy)或Putty(最新版本)连接,则连接偶尔会丢失,机器只能从该机器无法访问。 如果我通过一些随机服务器连接到它,它可以工作,而我甚至不能从我的机器ping那台机器。 更多细节: 在机器上的tcpdump看到我自己的ping尝试,但没有回复正在发送 当这种情况发生时,SSH简单地超时 重新启动networking接口或重新启动可以暂时解决问题 在1分钟和几个小时之间随机发生 所有的机器都在同一个子网上 所有机器都连接到Cisco交换机,在此子网上没有configurationVLAN 检查知识产权盗窃(也许一台笔记本电脑睡觉,随意醒来做东西),没有成功 为了完成混乱,RedHat6机器(完全相同的硬件)的连接永远不会遇到这个问题 e1000e模块正在所有这些机器上使用(当然除了腻子窗口),更新到最新的一个或两个固件没有帮助 networking电缆也被切换 – 没有成功 eeprom_fix_82574_or_82583没有解决这个问题,即使这些问题出现在这些机器上 在这些有问题的机器上安装Debian可以解决这个问题,但是由于公司的原因不需要 所以在这里,我完全无能为力…有没有人有丝毫的想法这里有什么问题?

如何configuration.NET应用程序尝试连接的SQL服务器

我们有一个来自第三方的.NET应用程序,拆卸和理解代码会很费时。 它在发布模式下编译。 到MS SQL数据库的连接string被定义为在configuration文件中,他们似乎是正确的。 有超过6个不同的数据库使用。 然而,当应用程序启动时,它会抛出一个错误,如“与SQL Serverbuild立连接时发生networking相关或特定于实例的错误”应用程序的跟踪在失败时尝试连接时不提供足够的信息。 是否有可能分析哪个连接的.NET应用程序试图打开,而不必事先知道它尝试连接哪个SQL服务器名称? SQLconfiguration文件跟踪从其他机器打开的服务器端的连接,但是在连接了SQL服务器的特定机器上看到的最佳工具是什么(可能还会看到不成功的连接)

从linux本地主机发起的连接

其中一台Linux服务器遭到了破坏,一些连接正在从本地主机发送到一个远程位置,并将信息放在其上。 我试图跟踪从我的服务器的所有传出连接.. 我试过 iptables -A OUTPUT -m tcp -p tcp –src 0/0 -j LOG –log-prefix "LOCALHOST SOURCED IT" –log-level 7 ,这并没有显示已经应用规则或任何地方的任何进展…有人可以请指导这里有什么问题。

网站已closures,但只为我

我有一个网站,工作正常,但每当我尝试和访问它会引发错误。 networking开发人员说这是我的networking问题。 我应该检查什么来确认这一点? 我已经尝试通过不同的互联网连接,它总是在他们的工作。 我曾尝试使用谷歌的DNS服务器8.8.8.8和网站仍然无法加载。 如果我ping的域名,它返回的networking服务器的正确IP。 我得到的错误是超时或错误代码:ERR_CONNECTION_REFUSED

Ipvsadm监视负载平衡器上的连接

我正在努力在第一个时期使用两个后端Web服务器在负载平衡器上设置Haproxy。 我面临的问题是监视每个Web服务器的连接数。 我已经试过用ipvsadm这个工具做这个,但是在阅读之后,我真的不确定如何使用这个工具来监视,而不是用它作为“转发 – 负载平衡工具”。 我试图设置它,但它是完全错误的,因为我只想监视连接到我的后端服务器与此工具。 有没有人有build议如何做到这一点? 我也希望有关如何制作图表的任何提示。 要添加服务器: ipvsadm -A -t 10.0.33.15:80 -s rr 添加Web服务器: ipvsadm -a -t 10.0.33.15:80 -r 10.0.33.18 –m ipvsadm -a -t 10.0.33.15:80 -r 10.0.33.19 -m

在linux中更好的替代tcp_syncookies

为了防止DDOS攻击,我遵循了在Linux机器中将/ proc / sys / net / ipv4 / tcp_syncookies值设置为1的build议,以启用TCP syncookies。 但是,当我看这个url: http : //ckdake.com/content/2007/disadvantages-of-tcp-syn-cookies.html 它告诉我,如果启用tcp_syncookies,那么包括大型窗口pipe理function在内的一半tcpfunction将被禁用,从而可能会降低性能。 我在其他地方读到,syn cookies的部分目的是当更多的数据包进入时,将tcp syn backlog缓冲区扩展到超过其上限(通过/ proc / sys / net / ipv4 / tcp_max_syn_backlog),使数据包不会丢失。 我希望能够禁用syn cookies,这样我就可以充分利用tcp,并使我的服务器运行得更快,并且不会再发生DDOS攻击。 我可以很容易地增加同步缓冲区和最大的连接数,但是我认为如果我太高的话,我会耗尽内存。 有没有人有一个很好的替代方法来在沉重的服务器上同步cookies而不会被DDOS攻击? 我想享受TCP的function,并为用户提供非常快的内容。

Apache2:如何跟踪服务器端的客户端下载进度

我在Ubuntu服务器上运行Apache2。 客户端使用浏览器从该服务器下载大文件(appx.2GB)。 如何在服务器端跟踪下载的进度。 我想看看为客户端提供了多less特定的下载。 谢谢!

递增CouchDB并发连接

我使用CouchDB来每秒处理数千个请求。 在重负载下,似乎响应很慢,所以我开始用阿帕奇板凳进行testing。 沙发可以响应50k请求,1k并发。 然后我把并发提高到了2K,但基准总是在大约8K的请求中被破坏, apr_socket_recv: Connection reset by peer (104) 在CouchDb日志中,我可以find这两个错误: [Sat, 21 Nov 2015 17:16:07 GMT] [error] [<0.8073.2>] {error_report,<0.31.0>, {<0.8073.2>,crash_report, [[{initial_call, {mochiweb_acceptor,init, ['Argument__1','Argument__2','Argument__3']}}, {pid,<0.8073.2>}, {registered_name,[]}, {error_info, {exit, {error,accept_failed}, [{mochiweb_acceptor,init,3, [{file,"mochiweb_acceptor.erl"},{line,34}]}, {proc_lib,init_p_do_apply,3, [{file,"proc_lib.erl"},{line,239}]}]}}, {ancestors, [couch_httpd,couch_secondary_services, couch_server_sup,<0.32.0>]}, {messages,[]}, {links,[<0.105.0>]}, {dictionary,[]}, {trap_exit,false}, {status,running}, {heap_size,233}, {stack_size,27}, {reductions,330}], []]}} // and this: [Sat, 21 Nov 2015 17:11:54 GMT] [error] […]

使用httperf的Nginx压力testing – Apache服务器的大数据传输差异

我在四核Nginx服务器上运行一个简单的httperf压力testing,指向一个HTML / PHP文档。 大的连接速度很快开始出现高连接和响应时间(请参阅下面结果中的中间连接时间和答复时间)。 是什么让这个令人费解的是,当一个Apache服务器重复testing服务相同的内容。 Apache服务器并没有相对的分心。 我注意到唯一的区别是在testingNginx服务器时(3315.6 KB / s vs 55.5 KB / s)的“Net I / O”值。 响应时间也有“转移”(849.6 ms)的巨大贡献,而Apache服务器的“0.0”在那里。 我的第一个想法是,networkingcaching不能在Nginx服务器上工作,导致更多的数据被传输,但事实并非如此,而且httperf也不是浏览器。 我的Nginxconfiguration理论上应该能够处理这个压力testing就好了。 我怀疑数据传输量是性能差的原因。 所以我的问题是:关于一个Nginxconfiguration,可以解释这个数据传输/内容长度的差异相对于Apache服务器托pipe相同的内容? 以下是两台服务器上的httperf结果,用于1000个连接的简单10秒testing: NGINX httperf –hog –server xxx.xxx.xxx.xxx –uri /test.html –num-conns 1000 –rate 100 httperf –hog –client=0/1 –server=xxx.xxx.xxx.xxx –port=80 –uri=/test.html –rate=100 –send-buffer=4096 –recv-buffer=16384 –num-conns=1000 –num-calls=1 httperf: warning: open file limit > FD_SETSIZE; limiting […]