免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1926 | 回复: 6
打印 上一主题 下一主题

出一题目,既要解决,也要效率 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2007-03-02 18:37 |只看该作者 |倒序浏览
题目大意: 从网上任意抓取一个页面,分析保存后,能在你的服务器上正常显示
比如抓取google的首页,保存到你的服务器,输入你服务器上的文件保存的URL,效果如同google首页一样
注: 图片 css js 等外部链接不需要下载到你的服务器

本来我也觉得没什么,做的时候才发现有点麻烦

论坛徽章:
0
2 [报告]
发表于 2007-03-02 19:32 |只看该作者
1.用html里的base href标签处理链接
2.用JavaScript屏蔽目标网站的js错误
3.用PHP直接获取目标网站的页面内容.

部分演示代码如下:

  1. <?php
  2. $url="http://www.google.com";
  3. echo "<base href={$url} />
  4. <SCRIPT LANGUAGE='JavaScript'>
  5.         window.onerror=function(){
  6.          return true;
  7.         }
  8. </SCRIPT>
  9. ";
  10. readfile($url);
  11. ?>
复制代码

[ 本帖最后由 axgle 于 2007-3-2 19:35 编辑 ]

论坛徽章:
0
3 [报告]
发表于 2007-03-03 08:42 |只看该作者
楼上是个办法。

论坛徽章:
0
4 [报告]
发表于 2007-03-05 22:18 |只看该作者
一看题目就是讨解决办法的,请楼主厚道一点,想请教别人就虚心一点求教,别搞这种小把戏。。

直接用php的curl扩展库。。。

[ 本帖最后由 Bangel 于 2007-3-5 22:19 编辑 ]

论坛徽章:
1
技术图书徽章
日期:2013-12-05 23:25:45
5 [报告]
发表于 2007-03-05 22:40 |只看该作者
原帖由 Bangel 于 2007-3-5 22:18 发表
一看题目就是讨解决办法的,请楼主厚道一点,想请教别人就虚心一点求教,别搞这种小把戏。。

直接用php的curl扩展库。。。


不如调用wget更快速

论坛徽章:
0
6 [报告]
发表于 2007-03-06 09:25 |只看该作者
原帖由 koocy 于 2007-3-2 18:37 发表
题目大意: 从网上任意抓取一个页面,分析保存后,能在你的服务器上正常显示
比如抓取google的首页,保存到你的服务器,输入你服务器上的文件保存的URL,效果如同google首页一样
注: 图片 css js 等外部链接不需 ...


下载下来。把不需要的链接替换为空。

论坛徽章:
0
7 [报告]
发表于 2007-03-06 18:45 |只看该作者
原帖由 HonestQiao 于 2007-3-5 22:40 发表


不如调用wget更快速

我有个类似的项目 图片小偷 用wget 弄 支持 小桥
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP