web小菜鸟成长记
任务一
1.了解基本语言
内容:使用phpstudy软件搭建php环境,了解php基本语法知识
2.安装python语言环境
3.阅读requests库文档
4.写出百度搜索结果爬虫脚本
1.了解基本语言
内容:使用phpstudy软件搭建php环境,了解php基本语法知识
网上直接搜索****很简单
(1) 首先捏,下载安装好phpstudy,有360的盆友们可以在安装之前把它暂时关掉,我自己用的腾讯电脑管家没关倒也没啥影响,安装的时候注意解压文件在你能找到的文件夹里,最好自己新建一个,安装完毕后点开桌面快捷就出现了如下 的界面,一定要启动,保证俩小绿灯都亮了。
(2) 然后捏,小窗口别关,咱打开一个浏览器,输入网址127.0.0.1
看见hello world就OK了
(3) 再然后,咱来试试是否真的成功了,找到自己新建的那个文件夹,看下图记号笔标注处找到WWW的文件夹打开,找到index.php或者把它删了新建一个文本index.html,这两者有优先级的关系,选中点右键在打开方式里选择用记事本打开。
随意输入一些内容,然后保存。再次打开刚才的网页刷新一下就会看到你输入的内容
这就搭建成功了
2.安装python语言环境
一般的Python很小很好下
https://www.python.org/downloads/release/python-371/
但是捏,据大神推荐好物在如下网站
https://www.anaconda.com/download/
Anaconda是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。因为包含了大量的科学包,Anaconda 的下载文件比较大(约 531 MB),如果只需要某些包,或者需要节省带宽或存储空间,也可以使用Miniconda这个较小的发行版(仅包含conda和 Python)。
小菜鸟目前仍在学习中,后期会写心得体会
3.阅读requests库文档
https://www.jianshu.com/p/ada99b7880a6
http://docs.python-requests.org/zh_CN/latest/user/quickstart.html
4.写出百度搜索结果爬虫脚本
爬虫简介
根据百度百科定义:网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
随着大数据的不断发展,爬虫这个技术慢慢走入人们的视野,可以说爬虫是大数据应运而生的产物,至少我解除了大数据才了解到爬虫这一技术
随着数据的海量增长,我们需要在互联网上选取所需要的数据进行自己研究的分析和实验。这就用到了爬虫这一技术。
还在学习各位前辈博客中。。。。https://blog.****.net/wn314/article/details/76595472
然鹅我初学目前还写不出脚本,这项任务等后期有能力了再完成。 ̄ω ̄= (=´ω`=)