用户名*
邮箱*
密码*
确认密码*
验证码* 点击图片更换验证码
找回密码
忘记密码了?输入你的注册邮箱,并点击重置,稍后,你将会收到一封密码重置邮件。
sdu----xjtu 数据挖掘界相声演员
使用spark RDD的假设是行与行之间没有关系,而xml标签是有开闭关系的,所以没法达成你要的效果。 除非你先处理一遍文件,把一个文件变成一行,然后你有大量的xml文件,每个文件一行,那么就可以处理了。
但是我的疑问和 @liushiqi9 一样,你的xml文件有多少啊。。。
Scala XML字面量应该足够用了吧
xml文件有多少啊 还要用spark来分析…
如果真要的话用map不就可以了
如 @大魔头-诺铁所说
rdd.map{file=>
def attributeExtract(file){******}
attributeExtract(file)
}
昵称*
E-Mail*
回复内容*
回复 ( 3 )
使用spark RDD的假设是行与行之间没有关系,而xml标签是有开闭关系的,所以没法达成你要的效果。 除非你先处理一遍文件,把一个文件变成一行,然后你有大量的xml文件,每个文件一行,那么就可以处理了。
但是我的疑问和 @liushiqi9 一样,你的xml文件有多少啊。。。
Scala XML字面量应该足够用了吧
xml文件有多少啊 还要用spark来分析…
如果真要的话用map不就可以了
如 @大魔头-诺铁所说
rdd.map{file=>
def attributeExtract(file){******}
attributeExtract(file)
}