Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
执行 io 时 akka jvm 线程与 os 线程
我在该网站上进行了一些搜索 以寻求帮助理解这一点 但没有找到任何非常清晰的内容 所以我想我应该发布我的用例 看看是否有人可以提供一些线索 我有一个关于在 akka 中用于 io 操作时 jvm 线程与操作系统线程的扩展的问题 来自 akka
Java
Multithreading
scala
akka
Apache Spark 中的递归方法调用
我正在从 Apache Spark 上的数据库构建一个家谱 使用递归搜索来查找数据库中每个人的最终父级 即家谱顶部的人 假设搜索 id 时返回的第一个人是正确的父母 val peopleById peopleRDD keyBy f gt f
scala
recursion
apachespark
RDD
将对象转换为类似类型
在斯卡拉 我有两个 Any 类型的对象 如果可能的话 我想将对象转换为正确的 Ordered 特征 然后将它们与 你可以通过以下方式实现Ordering类型类别 def compare T Ordering Manifest a AnyRe
scala
Scala - 动态类加载 - A 类无法转换为 A 类
我有一个包含类的简单 jar 文件A public class A 然后我在运行时加载它 var classLoader new URLClassLoader Array my jar file toURI toURL var clazz
class
scala
Dynamic
classLoader
loading
函数式 Scala 的重构/布局
这一班班轮 Console println io Source fromFile names txt getLines mkString split map x String gt x slice 1 x length 1 sortBy x
scala
refactoring
functionalprogramming
codingstyle
EC2 上的 Spark Streaming:线程“main”中出现异常 java.lang.ExceptionInInitializerError
我正在尝试在我创建的 jar 文件上运行 Spark submit 当我在我的计算机上本地运行它时 它可以正常工作 但当部署到 Amazon EC2 上时 它会返回以下错误 root ip 172 31 47 217 bin spark s
scala
Maven
amazonec2
apachespark
SparkStreaming
在 ubuntu 上安装 sbt [关闭]
Closed 这个问题不符合堆栈溢出指南 help closed questions 目前不接受答案 我已经在 Ubuntu 上安装了 sbt bin sbt bin ls classes sbt sbt launch jar target
scala
Debian
ubuntu1204
sbt
deb
Spark数据帧过滤器
val df sc parallelize Seq 1 Emailab 2 Phoneab 3 Faxab 4 Mail 5 Other 6 MSL12 7 MSL 8 HCP 9 HCP12 toDF c1 c2 c1 c2 1 Emai
scala
apachespark
apachesparksql
避免在泛型方法中强制转换为 Nothing
scala gt def foo U t Any t asInstanceOf U foo U t Any U scala gt val s String foo hi scala gt val n foo hi java lang Cla
generics
scala
将属性添加到类型而不是类型实例的隐式转换
我正在阅读一些较旧的 Scala 帖子 以更好地理解类型类 然后我运行了 穿过this one https stackoverflow com questions 8524878 implicit conversion vs type cl
scala
typeclass
implicit
如何在多模块构建中禁用根聚合模块的打包和发布任务?
我有一个多项目 SBT 项目 它看起来像 SBT 文档上的示例 import sbt import Keys object HelloBuild extends Build lazy val root Project id hello ba
scala
sbt
等待多个 Akka FSM 消息
我有一个 Akka FSM actor 在收到消息后运行以下伪代码ReadyState lookupA Wrapper Lookup A lookupB Wrapper Lookup B lookupC Wrapper Lookup C g
scala
Asynchronous
akka
Actor
fsm
Scalatra 示例代码中找到的 Scala 波浪号
刚刚遇到这个示例代码 了解 Scalatra 中的命令 protected def handle Handler case c CreateTodoCommand gt add newTodo c name value 在这种特殊情况下 具
scala
scalatra
如何解决 DataSet.toJSON 与结构化流不兼容的问题
我想将 Twitter 中的数据写入 Kafka 出于教育目的 我尝试使用结构化流来做到这一点 我创建了一个基于套接字源的 Twitter 源 它运行良好 我按如下方式设置来源 val tweets spark readStream for
scala
apachespark
ApacheKafka
SparkStructuredStreaming
如何在 Intellij Idea 10 中运行 Scala 代码
我有一个简单的问题 我安装了idea和scala插件 创建项目并添加想要运行的简单println Hello world 我创建 scala 脚本 添加这一行 当我运行它时 出现错误expected class or object defi
scala
intellijidea
AnyVal 的目的是什么?
我想不出该类型的任何情况AnyVal会很有用 特别是添加了Numeric用于抽象的类型Int Long等等 是否有任何实际用例AnyVal 或者它只是一个使类型层次结构变得更漂亮的工件 只是为了澄清 我知道什么AnyVal is 我只是想不
scala
POM/JAR中出现的宏依赖
我有一个使用宏的 scala 项目 它基本上遵循此处描述的确切方法 http www scala sbt org 0 12 4 docs Detailed Topics Macro Projects html http www scala
scala
macros
sbt
Pomxml
scalamacros
[IllegalStateException]:Spark 结构化流正在终止流查询并出现错误
我创建了一个 Spark 结构化流应用程序 在应用程序中 我从 Kafka 主题中提取数据 为了恢复目的 我使用检查点 我面临的挑战如下 ERROR StreamExecution Query id cf9e0f0a 653a 4246 a
scala
apachespark
ApacheKafka
SparkStructuredStreaming
依赖于自身的 Spark 窗口函数
假设我在 DataFrame 中有一列已排序的时间戳 我想编写一个函数 向该 DataFrame 添加一列 根据以下规则将时间戳切割成连续的时间片 从第一行开始并继续迭代到最后 对于每一行 如果您在当前组中走了 n 行 或者您在当前组中走了
scala
apachesparksql
使用默认参数验证模拟对象方法调用
假设我有这样的课程 class Defaults def doSomething regular String default Option String None println s Doing something regular def
scala
Mockito
defaultarguments
«
1 ...
94
95
96
97
98
99
100