Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
无法使用 Spark 结构化流在 Parquet 文件中写入数据
我有一个 Spark 结构化流 val df spark readStream format kafka option kafka bootstrap servers localhost 9092 option startingOffset
scala
apachespark
SparkStructuredStreaming
帮助我理解这段 Scala 代码:scalaz IO Monad 和隐式
这是后续this https stackoverflow com questions 7404495 help me understand this scala code scalaz io monad问题 这是我试图理解的代码 它来自ht
scala
monads
scalaz
如何从 lift webapp 读取文件
我想在我的 lift 应用程序中读取 xml 文件 val data XML load new java io InputStreamReader new java io FileInputStream 文件名 编码 然而 我得到java
scala
webapplications
Jetty
lift
为什么我的代码在 Spark Pregel 中执行需要很长时间?
我在 Spark 中使用 Pregel 编写了处理图形的代码 但对于小数据集来说 它的执行速度非常非常慢 我以前用pregel写过程序 但是这段代码运行速度确实很慢 我的集群由 2 个工作人员组成 每个都有核心 i5 CPU 和 6 GB
scala
apachespark
pregel
Playframework 2.0 在视图模板中定义函数
我正在开发一个使用 PlayFramework 2 0 的项目 在阅读了一些 scala 之后 我想在视图模板中嵌入一些动态代码 所以 我做了以下事情 def getMystring sequence Int if patternForm
scala
playframework
playframework20
Scala 函数定义参数列表中不同的括号样式
Scala 中以下两个函数定义有什么区别 1 def sum f Int gt Int a Int b Int Int code 2 def sum f Int gt Int a Int b Int Int code SBT 的控制台 RE
function
scala
functionalprogramming
higherorderfunctions
类型不匹配;发现:长 需要:Int
我有一个应该返回 Long 的方法 但我收到一个错误 type mismatch found Long required Int 方法如下 def getRandom IMEI from Long to Long Long if from
scala
在 Java 中使用 Scala 常量
我目前正在评估 Scala 的未来项目 并发现了一些奇怪的事情 我在 JSP 中为我们创建了以下常量 val FORMATED TIME formatedTime 但这没有用 经过一番尝试后 我决定反编译以了解其真相 private fin
Java
scala
scalajavainterop
在 Scala 中是否可以指定匿名函数的返回类型?
我知道您可以创建一个匿名函数 并让编译器推断其返回类型 val x gt System currentTimeMillis 只是为了静态类型的缘故 是否也可以指定其返回类型 我认为这会让事情变得更加清晰 val x gt System cu
scala
anonymousfunction
statictyping
如何编写 sbt 插件来通过代理启动应用程序
我想在开源之前为我的项目创建一个 sbt 插件 该项目在应用程序运行开始时附加一个 Java 代理 以对其进行各种类型的分析 代理写出文本文件以供以后处理 我希望能够编写一个 sbt 插件 有一个替代方案run called runWith
scala
Plugins
sbt
kafka ProducerRecord 和 KeyedMessage 有什么区别
我正在衡量卡夫卡生产者生产者的表现 目前我遇到了两个配置和用法略有不同的客户 Common def buildKafkaConfig hosts String port Int Properties val props new Proper
scala
ApacheKafka
kafkaproducerapi
组合多个任意长度的列表
我正在寻找一种通过以下方式加入多个列表的方法 ListA a b c ListB 1 2 3 4 ListC Resulting List a 1 b 2 c 3 4 换句话说 元素按顺序排列 从第一个列表开始组合到结果列表中 任意数量的输
scala
scalacollections
Spark SQL中如何按列降序排序?
I tried df orderBy col1 show 10 但它是按升序排列的 df sort col1 show 10 也按升序排序 我查看了 stackoverflow 发现的答案都已过时或称为 RDD https stackove
scala
apachespark
apachesparksql
向数据框添加新列的问题 - Spark/scala
我是 Spark scala 的新手 我正在尝试将一些数据从配置单元表读取到 Spark 数据帧 然后根据某些条件添加一列 这是我的代码 val DF hiveContext sql select from select from test
scala
apachespark
DataFrame
apachesparksql
userdefinedfunctions
通过spark-shell以静默模式执行scala脚本
需要通过spark shell以静默模式执行scala脚本 当我使用时spark shell i file scala 执行后 我进入scala交互模式 我不想进入那里 我尝试执行spark shell i file scala 但我不知道
scala
apachespark
sparkshell
scala:抽象类实例化?
我怎么会实例化一个抽象类呢 abstract class A val a Int val a new A val a 3 或者是隐式创建了一些具体的类 那些大括号之后是做什么用的new A mean 这样 您就隐式扩展了A 你所做的是语法糖
scala
abstractclass
Scala+Slick 3:将一个查询的结果插入到另一张表中
这个问题是关于 slick 3 0 或 3 1 的 我对此很灵活 我有一个中间查询 我用它来处理map for等等以获得我想要的结果 最后我有一个 val foo DBIOAction Seq MySchema Bar NoStream E
scala
slick
slick30
Scala 模式匹配与 Option[Any] 的混淆
我有以下 Scala 代码 import scala actors Actor object Alice extends Actor this start def act loop react case Hello gt sender Hi
scala
patternmatching
Actor
unchecked
使用 Scala Slick 创建组合主键
我正在尝试使用两列作为 Scala Slick 表的主键 这是我的表的定义方式 class NbaPlayerBoxScoreTable tag Tag extends Table NbaPlayerBoxScore tag player
scala
slick
Scala 中的超时未来
假设我有一个函数 它调用一个阻塞可中断的手术 我想在超时的情况下异步运行它 也就是说 我想在超时到期时中断该功能 所以我正在尝试做这样的事情 import scala util Try import scala concurrent Fut
scala
concurrency
Future
«
1 ...
3
4
5
6
7
8
9
...100
»