- ·上一篇文章:for语句中的几种分隔符形式
- ·下一篇文章:Norton Ghost批处理命令用法详细介绍
hitme批处理集合
cho connecting 192.168.1.%i && @(for /f "tokens=1,3 skip=2 delims=: " %j in ('ping 192.168.1.%i') do @if '%j' 'Reply' @find "192.168.1.%i" list.txt > nul 2>nul || @echo %k>>list.txt && @echo 192.168.1.%i connected) *code by su99 *单行精品 --------------------------------------------------------------- 5.DOS下文件列表按文件名长度递增排列 如果一个目录里面有如下四个文件(当然,实际中文件数量和文件名是随机的) 1.txt,2.txt,10.txt,20.txt 在DOS下要如何使用如何才能让他们按 1.txt 2.txt 10.txt 20.txt 输出,而非 1.txt 10.txt 2.txt 20.txt 输出? 我用的系统是xp~多谢大家~ for /l %a in (1,1,20) do @(if exist "%a.txt" echo %a.txt) *思路是穷举。前提是文件名有一定规律:除了数字外的部分要一样,如果是 abc1.txt, xyz10.txt这样乱来,这个方法就不管用了(严格说,如果是有限 个不同的pattern,仍然可以做到,不过麻烦一些) *code by su99 or list.bat,以下内容保存为.bat文件执行 代码: @echo off set t=.... :loop set t=%t%. dir /b /a:-d | findstr /r "^%t%$" if "%t%" "........................." goto end goto loop :end *findstr/r "^.....$过滤排序 --------------------------------------------------------------- 6.远程批量关机,以下内容保存为.bat文件执行 代码: for /l %%i in (1,1,254) do @(arp -d & ping 192.168.3.%%i -n 1 -w 100 & arp -a | find "00-00-00-00-00-00" > nul || shutdown -m \\192.168.3.%%i -s -f) *关闭了icmp,照关 8. cmd cmd中一些符号的说明: & 最简单的组合命令,作用是连接n个命令,按顺序执行,不管是否有执行失败 。 a & b #依次执行a,b && 组合命令,与&命令不同之处在于,判断是否有执行失败,如失败将不继续执 行剩下的命令。 a && b #a成功,b执行 || 作用与&&相反 a || b #a失败,b执行 连着用a && b || c,表示a成功,则执行b,b失败,则执行c >、>> 输出重定向命令,将命令的输出写入到一个文件中。 区别:>覆盖写入,>>尾部追加写入 echo a>a.txt find /v "" *.txt >list.txt | 管道命令,前一命令的输出作为后一命令的输入,常用于文本过滤操作 dir | find "hitme.exe" 9. cmdUnicode to ASCII TYPE Unicode.txt > ASCII.txt 10. Curl- CURL? 嗯,说来话长了~~~~ 这东西现在已经是苹果机上内置的命令行工具之一了,可见其魅力之一斑 1) 二话不说,先从这里开始吧! curl http://www.yahoo.com 回车之后,www.yahoo.com 的html就稀里哗啦地显示在屏幕上了~~~~~ 2) 嗯,要想把读过来页面存下来,是不是要这样呢? curl http://www.yahoo.com > page.html 当然可以,但不用这么麻烦的! 用curl的内置option就好,存下http的结果,用这个option: -o curl -o page.html http://www.yahoo.com 这样,你就可以看到屏幕上出现一个下载页面进度指示。等进展到100%,自然 就OK咯 3) 什么什么?!访问不到?肯定是你的proxy没有设定了。 使用curl的时候,用这个option可以指定http访问所使用的proxy服务器及其 端口: -x curl -x 123.45.67.89:1080 -o page.html http://www.yahoo.com 4) 访问有些网站的时候比较讨厌,他使用cookie来记录session信息。 像IE/NN这样的浏览器,当然可以轻易处理cookie信息,但我们的curl呢 ?..... 我们来学习这个option: -D <-- 这个是把http的response里面的cookie信息 存到一个特别的文件中去 curl -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.yahoo.com 这样,当页面被存到page.html的同时,cookie信息也被存到了 cookie0001.txt里面了 5) 那么,下一次访问的时候,如何继续使用上次留下的cookie信息呢?要知道 ,很多网站都是靠监视你的cookie信息, 来判断你是不是不按规矩访问他们的网站的。 这次我们使用这个option来把上次的cookie信息追加到http request里面去: -b curl -x 123.45.67.89:1080 -o page1.html -D cookie0002.txt -b cookie0001.txt http://www.yahoo.com 这样,我们就可以几乎模拟所有的IE操作,去访问网页了! 6) 稍微等等~~~~~我好像忘记什么了~~~~~ 对了!是浏览器信息~~~~ 有些讨厌的网站总要我们使用某些特定的浏览器去访问他们,有时候更过分的 是,还要使用某些特定的版本~~~~ NND,哪里有时间为了它去找这些怪异的浏览器呢!? 好在curl给我们提供了一个有用的option,可以让我们随意指定自己这次访问 所宣称的自己的浏览器信息: -A curl -A "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.yahoo.com 这样,服务器端接到访问的要求,会认为你是一个运行在Windows 2000上的 IE6.0,嘿嘿嘿,其实也许你用的是苹果机呢! 而"Mozilla/4.73 [en] (X11; U; Linux 2.2; 15 i686"则可以告诉对方你是 一台PC上跑着的Linux,用的是Netscape 4.73,呵呵呵 7) 另外一个服务器端常用的限制方法,就是检查http访问的referer。比如你先 访问首页,再访问里面所指定的下载页,这第二次访问的referer地址就是第 一次访问成功后的页面地址。这样,服务器端只要发现对下载页面某次访问的 referer地址不 是首页的地址,就可以断定那是个盗连了~~~~~ 讨厌讨厌~~~我就是要盗连~~~~~!! 幸好curl给我们提供了设定referer的option: -e curl -A "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -x 123.45.67.89:1080 -e "mail.yahoo.com" -o page.html -D cookie0001.txt http://www.yahoo.com 这样,就可以骗对方的服务器,你是从mail.yahoo.com点击某个链接过来的
上一页 [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] 下一页
hitme批处理集合