kaggle之路(1)

使用kaggle数据需要先注册账号。注册成功后可以下载数据,提交结果,可fork他人的notebook和kernel,并在线运行。若要自己create notebook或kernel,需要根据提示完善资料,并upvote(给他人的notebook点个赞)。完善资料中的add location和bio需要注意。add location大概是由于链接到的location数据库在*被墙,必须爬过高墙后才能填写,不会fq的推荐用green v*n,真正免费一键v*n。bio填写在电脑网页上没找到,后用手机上浏览器打开手机版网页才找到。


1. 学习使用kaggle-->kernel/notebook,在线运行,提交数据。fork 《TatanicLearningQI》,得分排名27%,此kernel的特点是特征处理的很细致,用随机森林方法既能得到好结果。


2. 安装XGboost,并在titanic上测试,参照

在Windows10 64位 Anaconda4 Python3.5下安装XGBoost


<Installing XGBoost For Anaconda on Windows>

悲剧,MinGW在线安装失败,下载无响应

kaggle之路(1)

3. 

练习IMBD预测项目《Bag of Words Meets Bags of Popcorn》,对自然语言处理方法和工具不熟,只是跑了下书上的代码,其中NLTK中的stopwords可能是没有下载的原因,总是报错,屏蔽了stopwords过滤就好了。