>>分享SPSS,Hadoop等大数据处理技术,以及分布式架构以及集群系统的构建 书籍支持  卫琴直播  品书摘要  在线测试  资源下载  联系我们
发表一个新主题 开启一个新投票 回复文章 您是本文章第 27909 个阅读者 刷新本主题
 * 贴子主题:  spark读取redis,连接池配置的范例代码 回复文章 点赞(0)  收藏  
作者:mary    发表时间:2020-03-21 16:01:46     消息  查看  搜索  好友  邮件  复制  引用

package com .test .log .makefriends

import redis .clients .jedis .{ JedisPool ,   JedisPoolConfig }
import scala .collection .mutable .ArrayBuffer
/**
   * @Author:  jxx
   * @Date:  2018/3/27 16:28
   */

object RedisUtil extends Serializable  {
     def redisUtil (data:   ArrayBuffer [ Array [ Byte ]]): java .util . ArrayList [ AnyRef ]  = {
       var pool: JedisPool   =   null
     if (pool ==   null )  {
         val config  =   new JedisPoolConfig ()

       config .setMaxTotal ( 96 )
       config .setMaxIdle ( 64 )
       config .setMaxWaitMillis ( 30000 )
       config .setTestOnBorrow ( false )
       pool  =   new JedisPool (config ,  "localhost" ,  port )
      }
       val jedis  = pool .getResource

     try {
         val sids  =   new java .util .ArrayList [ AnyRef ]
         for (key <- data ) sids .add (jedis .get (key ))
       sids
     }   catch {
         case _: Exception =>   null
     }   finally {
       pool .close ()
      }
   }

}

----------------------------
原文链接:https://blog.csdn.net/jxx4903049/article/details/79733021

程序猿的技术大观园:www.javathinker.net



[这个贴子最后由 flybird 在 2020-03-21 16:01:46 重新编辑]
  Java面向对象编程-->对象的生命周期
  JavaWeb开发-->Web运作原理(Ⅲ)
  JSP与Hibernate开发-->数据库事务的概念和声明
  Java网络编程-->基于MVC和RMI的分布式应用
  精通Spring-->通过Axios访问服务器
  Vue3开发-->组合(Composition)API
  数据治理到底能治什么,怎么治
  一文看懂Zookeeper
  大数据存储单位介绍(TB、PB、EB、ZB、YB有多大)
  spark读取kafka后写入redis
  spark-redis入门教程
  glusterfs 7 分布式存储 目前最新版实战详解
  深入玩转K8S之使用kubeadm安装Kubernetes v1.10以及常见问题...
  Spark Thrift JDBCServer应用场景解析与实战案例
  Hive 企业级调优
  Hadoop与Spring的集成
  00-Spark介绍
  Hadoop是否过时?
  MapReduce工作原理图文详解
  Hadoop生态系统介绍
  大数据的处理技术
  更多...
 IPIP: 已设置保密
楼主      
1页 0条记录 当前第1
发表一个新主题 开启一个新投票 回复文章


中文版权所有: JavaThinker技术网站 Copyright 2016-2026 沪ICP备16029593号-2
荟萃Java程序员智慧的结晶,分享交流Java前沿技术。  联系我们
如有技术文章涉及侵权,请与本站管理员联系。