对于想了解我的c#TCPSockets程序被WindowsDefender隔离的读者,本文将是一篇不可错过的文章,我们将详细介绍c#tcpclient,并且为您提供关于chrome.sockets.t
对于想了解我的 c# TCP Sockets 程序被 Windows Defender 隔离的读者,本文将是一篇不可错过的文章,我们将详细介绍c# tcp client,并且为您提供关于chrome.sockets.tcp.send是否可以等待响应?、KMSpico 激活 Windows 10 被 Defender 阻止了、linux 网络错误 TCP: too many orphaned sockets 解决方法、MFC ado连接sqlserver2005 报错 [TCP/IP Sockets]ConnectionWrite (send())的有价值信息。
本文目录一览:- 我的 c# TCP Sockets 程序被 Windows Defender 隔离(c# tcp client)
- chrome.sockets.tcp.send是否可以等待响应?
- KMSpico 激活 Windows 10 被 Defender 阻止了
- linux 网络错误 TCP: too many orphaned sockets 解决方法
- MFC ado连接sqlserver2005 报错 [TCP/IP Sockets]ConnectionWrite (send())
我的 c# TCP Sockets 程序被 Windows Defender 隔离(c# tcp client)
...远程关闭有问题的应用程序。
在某种程度上,这确实使您的程序“执行来自攻击者的命令”。问题似乎不在于您使用的任何 API - 而在于程序实际执行的操作。
您可以尝试使用 ConfuserEx 之类的东西来混淆您的程序,尽管 Windows Defender 也可能标记混淆的构建,因为这是一些真正的恶意软件用来隐藏自己的方法。最简单的解决方案是将程序放在一个单独的目录中,并将该目录添加到 Windows Defender 的排除列表中。
,我们经常遇到此类问题,实际上您无能为力。误报只是我们必须处理的一部分,对于低分发项目(例如个人远程管理工具或我自己的常见情况,自定义 AV 升级脚本)处理它们的唯一方法是为您的在计算机上安装程序时以及每次更新代码时都拥有自己的程序。
就好像微软禁止使用它提供的 API 一样。
不幸的是,恶意软件使用了这些相同的 API。 AV 供应商不断升级他们的定义以捕获尽可能多的威胁,并且恶意软件使用的常用技术也存在于远程管理工具中。
从快速搜索来看,Wacatac.B!ml
是一个特别有问题的检测,它攻击了各种合法应用程序,包括 Blender recently 的开源启动器和其他几个项目。
根据经验,!ml
标记意味着该定义是通过机器学习得出的,这意味着它很可能是深度启发式而非代码指纹。
可能的解决方案
绕过这种启发式检测的最通用方法是使用 extended validation code signing。由于这需要相对昂贵的认证过程,因此对于您的内部儿童监控工具来说,它不太可能成为有用的解决方案。
在您的情况下,也许路径或 file exclusion 可以让您继续改进您的工具,而不必担心它会不断被检测和阻止。我不建议将它用于生产系统,但仅用于家庭使用它很简单,但有时不可靠。
最后,您可以彻底更改代码。如果您无法找到避免使用当前代码库进行检测的方法,那么请考虑完全使用不同的技术。启用 powershell 远程处理并在网络上的另一台机器上运行收集器脚本。构建一个基于 Web 的代理,它轮询 Web 服务(当然是在本地网络上)以获取要运行的命令。使用一个流行的库来处理实际的通信,而不是自己访问套接字。也许效率不高,但有时只需要进行一次更改即可让误报让您无所适从。
chrome.sockets.tcp.send是否可以等待响应?
如何解决chrome.sockets.tcp.send是否可以等待响应?
我正在开发Google Chrome应用以与套接字服务器通信。一切正常,但是,当我使用chrome.sockets.tcp.send
时,程序将在发送数据后立即返回。我需要等待服务器响应才能继续。有办法吗?
也就是说,此时我需要同步通信,因此无法使用 chrome.sockets.tcp.onReceive.addListener
接收数据。
如果不可能,我将需要考虑其他机制。
Jaime
KMSpico 激活 Windows 10 被 Defender 阻止了
相信很多朋友都遇到过以下问题,就是KMSpico 激活 Windows 10 被 Defender 阻止了。。针对这个问题,今天小编就搜集了网上的相关信息,给大家做个KMSpico 激活 Windows 10 被 Defender 阻止了。的解答。希望看完这个教程之后能够解决大家KMSpico 激活 Windows 10 被 Defender 阻止了。的相关问题。
KMSpico 是一款专业的 Windows 系统激活工具,成功率较高,完全傻瓜式操作,颇受用户欢迎。有小伙伴反映说,使用 KMSpico 激活Windows 10 却被 Defender 阻止了,提示说该软件不安全,咋办呢?无妨,我们可以通过以下方法进行解决。
Windows Defender 阻止 KMSpico 激活系统怎么办?
如果 KMS 激活工具安装在 C:\\Program Files,鼠标右击文件夹,弹出菜单,选择“使用Windows defender扫描”,
扫描结束,出现结果,点击“显示详细信息”,
进入如下界面,点击“推荐的操作”->“允许”,最后点击“应用操作”,
设置完成,就不会出现警报了,你可以正常使用 KMSpico 系统激活工具。想了解更多精彩教程资讯,请请关注 chuwenyu.com(小编)。
linux 网络错误 TCP: too many orphaned sockets 解决方法
目录
1.端口与socket
2.端口耗尽
3.socket资源耗尽
4.回到正题来
解决方案:
echo "net.ipv4.ip_local_port_range = 1024 65535" >> /etc/sysctl.conf
echo "net.ipv4.tcp_mem = 786432 2097152 3145728">> /etc/sysctl.conf
echo "net.ipv4.tcp_rmem = 4096 4096 16777216">> /etc/sysctl.conf
echo "net.ipv4.tcp_wmem = 4096 4096 16777216">> /etc/sysctl.conf
sysctl -p /etc/sysctl.conf
起因:同事在服务器上部署了单个golang编写的HTTPDNS实例,一个固定的端口9981对外提供服务。当QPS达到几十万以上时,该实例崩溃,且无法再次启动
dmesg 查看系统日志,发现大量日志,如下:
TCP:too many orphaned sockets
看到这个日志想到了可能是sockets资源耗尽了。下面来分析下如何解决吧
1.端口与socket
端口
Linux下端口号范围0~65535,其中0~1023是系统保留端口号,1024~65535是用户可使用端口号,Linux下默认用户可用端口号范围如下:
cat /proc/sys/net/ipv4/ip_local_port_range
32768 60999
可用端口号为28232个,可以通过参照https://charlescui.iteye.com/blog/341713这个链接中的方式修改
socket
要明确两点:
- 端口并不等同于socket ,网络中每个通信实体的 socket 是用一个三元组标识的。三元组指的是:协议族(地址族),网络地址、和传输层端口 (某些时候其实也可以把协议族去了,理解为二元组)。socket pair(也就是一个TCP连接中两端的socket)则是(source_ip;source_port;destination_ip;destination_port)组成的四元组,socket pair唯一标识一个网络上的每个TCP连接。其中任意一元不同,都是一个新的新的连接。参考:《TCP-IP详解》卷一
- 在Linux中,一切都可以看成文件,包括磁盘,外设等,内核(kernel)利用文件描述符(file descriptor)来访问文件。文件描述符是非负整数,打开现存文件或新建文件时,内核会返回一个文件描述符。读写文件也需要使用文件描述符来指定待读写的文件。socket是一个抽象出来的概念,本质上也是一个文件描述符。
参考:《unix网络编程》·卷1
2.端口耗尽
上面已经写了,端口号是有范围的,因此可能存在被耗尽的风险。
这种情况一般是出现在客户端机器上的。因为一般服务端都是固定端口的,由客户端动态的使用一个端口号,与目标服务器连接。
比如下面的客户端代码:
# 创建 socket 对象
s = socket.socket(socket.AF_INET,socket.soCK_STREAM)
host = '10.32.4.95'
port = 9999
# 连接服务,指定主机和端口
s.connect((host,port))
客户端都是动态的使用一个端口号,来连接服务端(10.32.4.95:9999),如果在客户端上不断的同服务端建立连接,那么客户端端口号可能被耗尽。压测的时候就算是使用短连接也可能导致客户端端口被耗尽。
因为TCP四次挥手最后过程,主动关闭连接的一端都会处于TIME_WAIT等待2MSL,一般是60s
修改内核参数主要目标就是加快TIME_WAIT状态套接字的回收(快速回收无效连接)
客户端:
#开启TCP连接中TIME-WAIT套接字的快速回收
net.ipv4.tcp_tw_recycle=1
#开启重用,表示是否允许将处于TIME-WAIT状态的socket(TIME-WAIT的端口)用于新的TCP连接 。
net.ipv4.tcp_tw_reuse=1
#对于本端断开的socket连接,TCP保持在FIN-WAIT-2状态的时间(秒)。
#对方可能会断开连接或一直不结束连接或不可预料的进程死亡。
net.ipv4.tcp_fin_timeout=5
#TCP时间戳(会在TCP包头增加12个字节),以一种比重发超时更精确的方法(参考RFC 1323)
#来启用对RTT 的计算,为实现更好的性能应该启用这个选项。
net.ipv4.tcp_timestamps=1
#收缩TIME_WAIT状态socket的回收时间窗口
net.ipv4.tcp_tw_timeout=3
一般也就上面这些参数,参考:
https://woodding2008.iteye.com/blog/2336704
https://blog.csdn.net/leijie0322/article/details/70821237
3.socket资源耗尽
注意,是资源耗尽,并不是socket耗尽,资源耗尽是指什么呢?严格来讲,socket是一个三元组(或者说二元组),一抽象出来的东西因此我觉得不存在socket耗尽的说法,但由于socket本质是一个文件描述符,因此存在文件描述符被耗尽的可能,下面再说
引用下这个总结
linux系统单机支持的tcp连接数主要受三个方面的限制:
1.文件描述符的限制 (socket本质上也是一个文件描述符)
2.系统内存限制
3.Linux内核的限制
参考:https://blog.csdn.net/ybxuwei/article/details/77969032
对于上面三点,一一说明一下
文件描述符的限制:在64位的系统上,文件描述符单机可以达到20亿+,因此这个限制基本不用考虑,绝对够用
系统内存限制:一个socket连接大概占用4~10Kb内存,要想单机1百万连接,那么就至少需要大概4G内存。这个用量对于现在的服务器来说还是很轻松就满足的
因此最关键的在于 Linux内核的限制,如果突破了这个限制就会出问题。
Linux对TCP、UPD连接是做了内存限制的,通过以下命令查看
cat /proc/sys/net/ipv4/tcp_mem
186135 248180 372270
cat /proc/sys/net/ipv4/udp_mem
372270 496361 744540
上面的数据 (参考连接)
第一个:low:当TCP使用了低于该值的内存页面数时,TCP不会考虑释放内存。
第二个:pressure:当TCP使用了超过该值的内存页面数量时,TCP试图稳定其内存使用,进入pressure模式,当内存消耗低于low值时则退出pressure状态。
第三个:high:允许所有tcp sockets用于排队缓冲数据报的页面量,当内存占用超过此值,系统拒绝分配socket,后台日志输出“TCP: too many of orphaned sockets” (应该是Out of Socket memory)。
如果超过最大限制,dmesg中会报Out of Socket memory错误,且程序会被杀死
上面的数据单位是页,页大小通过以下命令查看
getconf PAGESIZE
4096
1 page =4096 byte
计算下得到,在我的电脑上Linux默认TCP连接可使用的内存上限是:1.4GB左右,当然了这个是我笔记本上的参数,服务器上的会更大
可以通过如下图所示命令查看tcp socket使用情况
[]
tcp_mem是设定了所有tcp连接能够使用的内存大小,此外对于单个tcp连接还可以调节一下参数:
rmem_max最大的TCP数据接收缓冲
wmem_max最大的TCP数据发送缓冲
tcp_rmem
tcp_wmem
这几个是tcp读写缓冲区的大小。
echo "net.ipv4.tcp_mem = 786432 2097152 3145728">> /etc/sysctl.conf
echo "net.ipv4.tcp_rmem = 4096 4096 16777216">> /etc/sysctl.conf
echo "net.ipv4.tcp_wmem = 4096 4096 16777216">> /etc/sysctl.conf
对于一般情况来说,上面的操作就已经足够了:保证能提供足够的连接数和足够的内存
但是还应该考虑soconnmax这个参数,这个参数限制了socket接收新 TCP 连接侦听队列的大小,在高并发的请求中,默认的值可能会导致链接超时或者重传。默认是128,挺小的,对于一个经常处理新连接的高负载 web服务环境来说建议调大。
参考:
https://blog.51cto.com/wujianwei/2104779
https://jaminzhang.github.io/linux/understand-Linux-backlog-and-somaxconn-kernel-arguments/
http://www.blogjava.net/yongboy/archive/2014/07/30/416373.html
https://fixatom.com/some-doubts-and-misunderstandings-of-tcp/
4.回到正题来
dmesg中出现tcp too many orphaned sockets信息是为什么呢?HTTPDNS服务器中,一般都是一些短连接,因此会产生大量orphan socket
什么是orphan socket?
First of all: what’s an orphan socket? It’s simply a socket that isn’t associated to a file descriptor. For instance,after you close() a socket,you no longer hold a file descriptor to reference it,but it still exists because the kernel has to keep it around for a bit more until TCP is done with it. Because orphan sockets aren’t very useful to applications (since applications can’t interact with them),the kernel is trying to limit the amount of memory consumed by orphans,and it does so by limiting the number of orphans that stick around. If you’re running a frontend web server (or an HTTP load balancer),then you’ll most likely have a sizeable number of orphans,and that’s perfectly normal.
意思就是说:orphan sockets是没有与任何文件描述符关联的socket,当你调用close()关闭一个socket后,你就不再拥有这个socket的引用了,但是它仍然存在与操作系统中,直到TCP完成挥手流程。因为orphan sockets对程序来说没有什么用,因此内核会限制其数量
Linux内核对orphaned sockets也做出了限制
cat /proc/sys/net/ipv4/tcp_max_orphans
65536
要避免这种情况,可以将tcp_max_orphans的值也设大一点,并且建议同时也参照上述2(快速回收无效连接),3(增加TCP socket可使用内存)进行优化
也看到一些建议修改net.ipv4.tcp_orphan_retries参数的
MFC ado连接sqlserver2005 报错 [TCP/IP Sockets]ConnectionWrite (send())
我这写了个连接数据库查询的,是每隔一分钟进行一次多表的连接查询:
全局的声明:
_ConnectionPtr m_pConnection; _RecordsetPtr pPtr;
连接的初始化代码: InitDBConnect() { try { //创建连接对象实例 m_pConnection.CreateInstance("ADODB.Connection"); _bstr_t strConnect = strSRC; LOG::Out0("INFO", "数据库连接初始化:%s", strSRC); //使用Open方法打开数据库 m_pConnection->Open(strConnect,"","",adModeUnknown); pPtr.CreateInstance("ADODB.Recordset"); LOG::Out0("INFO", "数据库初始化完毕!"); } catch(_com_error e) { LOG::Out0("ERROR", "初始化错误: %s", e.ErrorMessage()); LOG::Out0("ERROR", "DESCRIPTION:%s", (char *)e.Description()); } } 查询的代码: void CDataAnalyzingDlg::DBQuery(CString sql) { LOG::Out0("INFO", "查询:%s", sql); _variant_t varSQL(sql); if(FAILED(pPtr->Open(varSQL, m_pConnection.GetInterfacePtr(),adOpenDynamic,adLockOptimistic,adCmdText))) { //AfxMessageBox("数据查询失败!"); LOG::Out0("ERROR", "查询失败"); pPtr->Release(); return; } }我的程序执行流程:
InitDBConnect()//一分钟一次
while(true){
//多表的连接查询
DBQuery(sql);
//本地处理。。。。
PpPtr->Close();
}
就报了如题的错误,请问具体导致的原因是什么,我怀疑是不是我的连接没有关闭导致的。
最好能提供个修改思路,
另外,我上面写的两个函数能应该怎样写才能更好!
谢谢了!!!
关于我的 c# TCP Sockets 程序被 Windows Defender 隔离和c# tcp client的介绍已经告一段落,感谢您的耐心阅读,如果想了解更多关于chrome.sockets.tcp.send是否可以等待响应?、KMSpico 激活 Windows 10 被 Defender 阻止了、linux 网络错误 TCP: too many orphaned sockets 解决方法、MFC ado连接sqlserver2005 报错 [TCP/IP Sockets]ConnectionWrite (send())的相关信息,请在本站寻找。
本文标签: