最新!Visual Studio Code添加了对SQL Server 2019大数据群集PySpark开发和查询的支持

翻译|其它|编辑:陈津勇|2019-10-11 11:19:07.150|阅读 58 次

概述:本文主要介绍现在通过Visual Studio Code扩展进行PySpark作业时可运用的一些功能,和可实现的更便捷的操作。

近日,微软宣布Visual Studio Code支持SQL Server 2019大数据群集PySpark开发和查询。它为Azure Data Studio提供了补充功能,可供数据工程师在数据科学家的数据探索和试验之后编写和生产PySpark作业。Visual Studio Code Apache Spark和Hive扩展使您可以享受跨平台和增强的轻量级Python编辑功能,它涵盖了有关Python编写、调试、Jupyter Notebook集成以及类似于交互式查询的笔记型计算机的场景。

点击下载Visual Studio Code


通过Visual Studio Code扩展,您可以享受本机Python编程体验,比如linting、调试支持、语言服务等。您可以为PY文件运行当前行、运行选定的代码行或全部运行,可以导入和导出一个.ipynb笔记本,并执行类似于“运行单元格”、“在上方运行”或“在下方运行”的查询笔记本,可以享受像笔记本电脑一样的交互式体验,其中包括您的源代码和标记注释以及运行结果和输出,可以在交互式结果窗口中删除不需要的部分、输入注释或键入其他代码。此外,您还可以通过matplotlib(如Jupyter Notebook)以图形格式可视化结果。

与SQL Server 2019大数据集群的集成使您能够快速向大数据集群提交PySpark批处理作业并监视作业进度。

点击下载Microsoft SQL Server正式版

主要功能亮点

  1. 您可以链接到SQL Server。该工具包使您可以连接PySpark作业并将其提交到SQL Server 2019大数据群集。

  2. Python编辑。开发具有本地Python创作支持(例如IntelliSense、自动格式、错误检查等)的PySpark应用程序。

  3. Jupyter Notebook集成。导入和导出.ipynb文件。

  4. PySpark交互式。运行选定的代码行,或运行诸如PySpark单元格之类的笔记本,以及交互式可视化。

  5. PySpark批处理。将PySpark应用程序提交到SQL Server 2019大数据群集。

  6. PySpark监视。与Apache Spark历史记录服务器集成以查看作业历史记录、调试和诊断Spark作业。

如何安装或更新

首先,安装Visual Studio Code,然后下载适用于Linux或Mac的Mono4.2.x。然后转到Visual Studio Code扩展存储库或Visual Studio Code市场并搜索Spark,获取最新的Apache Spark和Hive工具。



慧都网·1024程序员节DevExpressMyEclipseAxure RPAsposeFastReport等产品限时放“价”,给你专属宠爱!点击下方图片查看活动详情↓↓↓

QQ截图20191008171313.png



标签:

本站文章除注明转载外,均为本站原创或翻译。欢迎任何形式的转载,但请务必注明出处,尊重他人劳动成果

文章转载自:Microsoft https://cloudblogs.microsoft.com/sqlserver/2019/09/03/visual-studio-code-develop-pyspark-jobs-for-sql-server-2019-big-data-clusters/

登录 慧都网发表评论


暂无评论...

为你推荐

  • 推荐视频
  • 推荐活动
  • 推荐产品
  • 推荐文章
  • 慧都慧问
title
title
相关厂商
相关产品
Visual Studio

非常完备的工具和服务,可帮助您为 Microsoft 平台和其他平台创建各种各样的应用程序

Microsoft SQL Server

最强大的关系型数据库管理系统。

在线
客服
在线
QQ
电话
咨询
400-700-1020
购物车 反馈 返回
顶部
在线客服系统
live chat