scala Scala剖析 03: 隐式转换(scala的隐式转换) 温暖记忆 发表于2024-05-02 浏览5162 评论0 目录 前言 当"隐式"不生效时 定义普通变量进行编译 单独定义隐式值,没有隐式参数与其对应时 隐式方法 类型转换 功能扩展 隐式值和隐式参数 隐式类 武魂融合技 上下文界定 隐式值是匿名内部类 implicitly 前言 scala 同 java 一样,运行在 JVM 上.其语法的灵活和易用可以理解为都是在 java 语言的基础上封装了丰富的语法糖.那scala 不同的语言特性"翻译"为 java 又是什么样子,Scala 剖析系列将会从零开始进行探索.
scala SparkStreaming-相关窗口操作 晚风 发表于2024-05-02 浏览6004 评论0 提前封装好的重复代码 按照我的习惯,先把重复的代码做一个简单的封装,后面直接继承就可,这里的窗口长度为3,滑动频率为1 package com.shujia.test import org.apache.spark.SparkContext import org.apache.spark.sql.SparkSession import org.apache.spark.streaming.{Durations, StreamingContext} import org.apach
scala Spark安装(spark安装详细教程) 山西五际直播基地 发表于2024-05-02 浏览5288 评论0 目录 首先我们在spark官网上下载spark安装包 上传 配置spark-env.sh 配置slaves 配置historyserver 分发 启动Spark Master 和Slaves以及HistoryServers 首先我们在spark官网上下载spark安装包 https://spark.apache.org/downloads.html 在最下面版本存档里找到与我们之前搭建的Hadoop2.7.5版本对应的spark2.2.0安装包 等待下载
scala 【Flink】在算子中使用Tuple出现的bug 曾经天真︶﹋ 发表于2024-05-02 浏览4220 评论0 在使用map,flatMap 算子的过程中想把pojo 转换成Tuple 类型进行输出,在编码的过程中正常,运行是出现异常 flink version 1.13 scala 2.12 jdk 1.8 1、问题 1.1、 报错关键日志 org.apache.flink.api.common.functions.InvalidTypesException: The return type of function 'main(Stream.java:287)' could
scala SparkStreaming kangs 发表于2024-05-02 浏览6318 评论0 一、SparkStreaming 概述 Spark Streaming 用于流式数据的处理。Spark Streaming 支持的数据输入源很多,例如:Kafka、Flume、Twitter、ZeroMQ 和简单的 TCP 套接字等等。数据输入后可以用 Spark 的高度抽象原语如:map、reduce、join、window 等进行运算。而结果也能保存在很多地方,如 HDFS,数据库等 Spark Streaming 的特点: 易用 容错 易整合到 Spark 体系
scala Swagger Ui使用介绍(推荐收藏) 漠然、 发表于2024-05-01 浏览3362 评论0 1 Swagger简介3 swagger 是一个规范和完整的框架,用于生成、描述、调用和可视化 RESTful 风格的 Web 服务。总体目标是使客户端和文件系统作为服务器以同样的速度来更新。文件的方法,参数和模型紧密集成到服务器端的代码,允许API来始终保持同步。 作用: 1.接口文档自动在线生成。 2.功能测试。 Swagger是一组开源项目,其中主要项目如下: 1.Swagger-tools:提供各种与Swagger进行集成和交互的工具。例如模式检验、Swagger1.2文档转换成Swa
scala CDH6.3.2 Spark-submit 提交作业到 yarn 无理 发表于2024-05-01 浏览5250 评论0 一、在idea中 写一个 wordcount 案例: 这里一定不能设置 .setMaster(“local[*]”) 这里一定不能设置 .setMaster(“local[*]”) 这里一定不能设置 .setMaster(“local[*]”) 重要的事情要说三遍!!!!否则 在启动yarn 模式的时候会报错!!! val conf = new SparkConf().setMaster(“local[*]”).setAppName(“WordCount”) package s
scala VMware 安装安卓虚拟机 一步一步的手把手教学(vmware虚拟机安装安卓系统教程) dede58织梦模板 发表于2024-05-01 浏览16816 评论0 平台:PC CPU:R7 3700X 显卡:3060 软件:VMware16 系统:Win10 1909 镜像:android-x86_64-9.0-r2-k49.iso 一、下载安卓镜像 网址:https://osdn.net/projects/android-x86/releases/71931 我用的迅雷下载,很快 度盘链接: pwd 2022 链接:https://pan.baidu.com/s/1HaSEB_CkyE_UmJwHlvzbrw?pwd=2022包含And
scala Flink ProcessWindowFunction 和WindowFunction使用 Hi,Sunny?宇哥 发表于2024-05-01 浏览6224 评论0 错误提示一: overloaded method value aggregate with alternatives: [ACC, V, R](preAggregator: org.apache.flink.api.common.functions.AggregateFunction[org.example.hot.items.UserBehavior,ACC,V], windowFunction: org.apache.flink.streaming.api.scala.function
scala 【Spring】一文带你吃透基于注解的DI技术(spring的di注入方式) 阿信。 发表于2024-05-01 浏览3061 评论0 个人主页: 几分醉意的CSDN博客_传送门 💖基于注解的DI ✨概念 基于注解的DI:使用spring提供的注解,完成java对象创建,属性赋值。 注解使用的核心步骤:1.在源代码加入注解,例如@Component。 2.在spring的配置文件,加入组件扫描器的标签。 ✨@Component注解创建对象 @Component: 表示创建对象,对象放到容器中。 作用是 属性:value ,表示对象名称,也就是bean的id属性值 位置:
scala 【云计算】3台虚拟机完成Spark Yarn集群部署并编写Scala应用程序实现单词计数统计 企业法律顾问王永宝 发表于2024-05-01 浏览7500 评论0 目录 1.准备环境 2.安装spark并配置环境 3.安装scala并配置环境 4.安装编辑器idea 5.编写Spark Scala应用程序实现单词计数统计 6.Spark On Yarn配置 1.准备环境 虚拟机:vmware workstation16 linux版本:centOS 7 linux 分布式环境:hadoop 3.1.1 (1)创建三台虚拟机,并准备好linux环境和hadoop,确保hadoop集群能成功运行 hadoop
scala C语言-简单的程序设计(简单的C语言程序设计) 山西五际直播基地 发表于2024-05-01 浏览4471 评论0 🌞欢迎来到C语言的世界 🌈博客主页:卿云阁 💌欢迎关注🎉点赞👍收藏⭐️留言📝 🌟本文由卿云阁原创! 🌠本阶段属于练气阶段,希望各位仙友顺利完成突破 📆首发时间:🌹2021年10月20日🌹 ✉️希望可以和大家一起完成进阶之路! 🙏作者水平很有限,如果发现错误,请留言轰炸哦!万分感谢! 目录 🍈 字符输入函数getchar 🍉字符输出函数putchar 🍊格式输入函数scanf 🍋顺序结构程序设计 🥒选择结构 🥬循环结构