大数据实战之环境搭建(六)

简介:

这篇我们看如何搭建solr,因为第一篇讲述了在windows下如何搭建,所以这里就简单的说一下。前面已经提到我们将solr压缩包拷贝至了usr/tmp下。

201151149.png

解压以后我们将dist下面的solr-4.3.0.war拷贝纸tomcat目录下面的webapps下,重启tomcat,war文件被解压

201449906.png

之后我们将solr解压目录下面的example/solr拷贝到上面solr-4.3.0下

201854633.png

拷贝完之后,我们修改tamcat webapps下面的solr-4.3.0/web-INF下面的web.xml,如下

202222741.png

修改完之后,我们再修改webapps/solr-4.3.0/solr下面的Solr.xml文件

1
2
3
< cores  adminPath = "/admin/cores"  defaultCoreName = "collection1"  host = "${host:}"  hostPort = "${jetty.port:8983}"  hostContext = "${hostContext:solr}"  zkClientTimeout = "${zkClientTimeout:15000}" >
   < core  name = "collection1"  instanceDir = "bruceTest"  />
</ cores >

在这里我只修改了实例目录为bruceTest,同时再修改webapps/solr-4.3.0/solr下面的collection1为bruceTest。

202710258.png

OK,完了之后进行我们的最后一步,在tomcat下面的/conf/catalina/localhost下面新建一个文件叫做solr.xml

203610115.png

内容如下

1
2
3
4
<? xml  version = "1.0"  encoding = "UTF-8" ?>
< Context  docBase = "/usr/tmp/solr-4.3.0/dist/solr-4.3.0.war"  debug = "0"  crossContext = "true"  >
    < Environment  name = "solr/home"  type = "java.lang.String"  value = "/usr/tmp/apache-tomcat-7.0.40/webapps/solr-4.3.0/solr"  override = "true"  />
</ Context >

还有一步是将solr目录下面的/example/lib/ext下的所有jar包拷贝至tomcat的lib目录下。

OK,我们重启tomcat,浏览solr如下,成功了。

223024414.png

因为下节要讲solr CURD demo(用C#写),那么我们先试试windows机器能不能访问到solr

结果是不行,我看了一下linux IP。


[root@bogon ~]# whereis ifconfig

ifconfig: /sbin/ifconfig /usr/share/man/man8/ifconfig.8.gz

[root@bogon ~]# cd /sbin

[root@bogon sbin]# ./ifconfig

eth0      Link encap:Ethernet  HWaddr 00:0C:29:83:F4:71  

         inet addr:192.168.192.128  Bcast:192.168.192.255  Mask:255.255.255.0

         inet6 addr: fe80::20c:29ff:fe83:f471/64 Scope:Link

         UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

         RX packets:907 errors:0 dropped:0 overruns:0 frame:0

         TX packets:1570 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:1000

         RX bytes:104886 (102.4 KiB)  TX bytes:1438224 (1.3 MiB)

         Interrupt:67 Base address:0x2024


lo        Link encap:Local Loopback  

         inet addr:127.0.0.1  Mask:255.0.0.0

         inet6 addr: ::1/128 Scope:Host

         UP LOOPBACK RUNNING  MTU:16436  Metric:1

         RX packets:9651 errors:0 dropped:0 overruns:0 frame:0

         TX packets:9651 errors:0 dropped:0 overruns:0 carrier:0

         collisions:0 txqueuelen:0

         RX bytes:17938532 (17.1 MiB)  TX bytes:17938532 (17.1 MiB)


我们看到了是192.168.192.128。然后在windows上去ping,可以通,但是就是访问不到。心里琢磨着肯定是端口被防火墙禁用了。于是

224718570.png

打开后在其他端口这里加入8080(TCP)

224833160.png

这样在windows上就可以访问了,下节是solr的CURD demo。



本文转自 BruceAndLee 51CTO博客,原文链接:http://blog.51cto.com/leelei/1220835,如需转载请自行联系原作者


相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
4月前
|
SQL 分布式计算 数据可视化
滴滴出行大数据数仓实战
滴滴出行大数据数仓实战
115 0
滴滴出行大数据数仓实战
|
4月前
|
SQL 分布式计算 大数据
【大数据技术Spark】DStream编程操作讲解实战(图文解释 附源码)
【大数据技术Spark】DStream编程操作讲解实战(图文解释 附源码)
37 0
|
4月前
|
安全 大数据 API
elasticsearch|大数据|elasticsearch的api部分实战操作以及用户和密码的管理
elasticsearch|大数据|elasticsearch的api部分实战操作以及用户和密码的管理
62 0
|
4月前
|
SQL 分布式计算 数据库
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
85 0
|
2月前
|
分布式计算 大数据 Java
Spark 大数据实战:基于 RDD 的大数据处理分析
Spark 大数据实战:基于 RDD 的大数据处理分析
120 0
|
4月前
|
SQL 存储 大数据
手把手教你大数据离线综合实战 ETL+Hive+Mysql+Spark
手把手教你大数据离线综合实战 ETL+Hive+Mysql+Spark
88 0
|
4月前
|
机器学习/深度学习 分布式计算 搜索推荐
【大数据技术】Spark MLlib机器学习协同过滤电影推荐实战(附源码和数据集)
【大数据技术】Spark MLlib机器学习协同过滤电影推荐实战(附源码和数据集)
73 0
|
4月前
|
机器学习/深度学习 分布式计算 前端开发
【大数据技术】Spark MLlib机器学习线性回归、逻辑回归预测胃癌是否转移实战(附源码和数据集)
【大数据技术】Spark MLlib机器学习线性回归、逻辑回归预测胃癌是否转移实战(附源码和数据集)
34 0
|
4月前
|
机器学习/深度学习 分布式计算 大数据
【大数据技术】Spark MLlib机器学习特征抽取 TF-IDF统计词频实战(附源码和数据集)
【大数据技术】Spark MLlib机器学习特征抽取 TF-IDF统计词频实战(附源码和数据集)
27 0
|
4月前
|
消息中间件 分布式计算 大数据
【大数据技术】Spark+Flume+Kafka实现商品实时交易数据统计分析实战(附源码)
【大数据技术】Spark+Flume+Kafka实现商品实时交易数据统计分析实战(附源码)
67 0