博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop综合大作业
阅读量:6540 次
发布时间:2019-06-24

本文共 300 字,大约阅读时间需要 1 分钟。

 

Hadoop综合大作业 要求:

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

  1、启动hadoop

  

2、Hdfs上创建文件夹并查看

3、上传英文词频统计文本至hdfs

4、启动Hive

5、导入文件内容到表docs并查看

6、进行词频统计

7、查看统计结果

 

 2.将爬取校园新闻生成的csv文件,然后通过qq邮箱在虚拟机的Linux系统下载

把下载的csv文件上传到hdfs,然后启动hive

3.导入数据到docs表并查看

4.查看docs表

 

 

转载于:https://www.cnblogs.com/qq412158152/p/9087793.html

你可能感兴趣的文章
Cocos2d-JS项目之二:studio基础控件的使用
查看>>
tar解压
查看>>
inheritprototype原型继承封装及综合继承最简实例
查看>>
【磁耦隔离接口转换器】系列产品选型指南
查看>>
Apriori 关联算法学习
查看>>
二叉树、红黑树、伸展树、B树、B+树
查看>>
Junit核心——测试集(TestSuite)
查看>>
MVPArms官方首发一键生成组件化,体验纯傻瓜式组件化开发
查看>>
Log4j_学习_00_资源帖
查看>>
制作iso镜像U盘自动化安装linux系统
查看>>
JSLint的使用
查看>>
命令行常用命令--软连接
查看>>
HTTP POST GET 本质区别详解
查看>>
OC继承专题
查看>>
PHP中HASH函数的优化技巧
查看>>
MD5加密
查看>>
RSA算法实例
查看>>
Unix环境高级编程笔记 :3、文件I/O
查看>>
Dubbo源码之服务端并发控制——ExecuteLimitFilter
查看>>
ant
查看>>