تخطي إلى المحتوى الرئيسي

Apache Spark Connect على Ilum: دليل التكوين والاتصال

ما هو Spark Connect؟

سبارك كونكت هي واجهة خادم عميل حديثة ل أباتشي سبارك that enables remote execution of Spark workloads from lightweight clients such as Python, Java, Scala, R, and SQL-based tools. Introduced in Spark 3.4, Spark Connect decouples the Spark client from the Spark runtime, allowing developers to بناء تطبيقات البيانات التفاعلية ودفاتر الملاحظات ولوحات المعلومات دون نشر محرك Spark الكامل محليا.

الرافعة المالية ل Spark Connect الاتصال المستند إلى gRPC للتفاعل مع خادم Spark بعيد، مما يوفر المرونة والأمان المحسن والبنية الأساسية المبسطة لسير عمل هندسة البيانات وعلوم البيانات والتحليلات.

إنه من دواعي سروري very similar to Ilum’s approach to Spark microservices، حيث يتم وضع مكونات Spark في حاويات وعرضها كخدمات ديناميكية. التصميم المستخدم في نشر خدمة PySpark Microservice على Kubernetes كلاهما يتيح الوصول القابل للتطوير وعديمي الحالة والآمن إلى Spark دون إعداد نظام المجموعة الكامل من جانب العميل.:

Why use Spark Connect on Kubernetes?

Traditional Spark submission often requires complex local setups (Java, Hadoop binaries, exact Spark versions). Spark Connect eliminates this "dependency hell."

ميزة Traditional Spark Submission (شرارة تقديم ) سبارك كونكت
معمار Monolithic (Driver runs on client or cluster edge)Decoupled (Client is separate from Server)
Client RequirementsHeavy (Requires Java, Spark binaries, Hadoop configs)Lightweight (Only Python/Go/Scala library required)
Network ProtocolCustom RPC (Sensitive to version mismatch)gRPC (Standard, version-agnostic, firewall-friendly)
Iteration SpeedSlow (Build & Deploy jars)Fast (Interactive, REPL-style development)
دعم اللغة limited to JVM/PythonPolyglot (Python, Scala, Go, Rust, etc.)
Feature Overview

For a deeper dive into how Ilum leverages this for multi-tenancy, see our Architecture Documentation.

في Ilum، يتماشى Spark Connect بشكل طبيعي مع بنية Spark القائمة على الخدمات المصغرة. يمكنك نشر خادم Spark Connect كوظيفة قياسية والوصول إليه من خلال طرق اتصال مختلفة، باستخدام اسم الجراب أو pod IP أو خدمة مكشوفة عبر Kubernetes.


Prepare Your Client Environment

Before connecting, you need a lightweight client library. Unlike traditional Spark, you do not need a local JVM or Hadoop installation.

Python (PySpark)

Install PySpark with Connect support
pip install pyspark[connect]==3.5.7 grpcio-status

Scala (sbt)

For Scala applications, add the Spark Connect client dependency:

libraryDependencies += "org.apache.spark" % %  "spark-connect-client-jvm" %  "3.5.7"

Spark SQL CLI

You can also use the generic Spark SQL CLI to connect remotely:

/path/to/spark/bin/spark-sql --remote "sc://<ilum-cluster-address>:15002"

ملاحظه : Always match your client library version (e.g., 3.5.7) with the Spark version running on your Ilum cluster.


إنشاء مثيل Apache Spark Connect عبر واجهة مستخدم Ilum

اتبع هذه الخطوات لتشغيل خادم Spark Connect كوظيفة على نظام مجموعة Ilum الخاص بك باستخدام واجهة مستخدم الويب:

  1. Start a New Spark Job: Log in to the Ilum UI and navigate to the Jobs section. Click on وظيفة جديدة لإنشاء وظيفة Spark جديدة.

  2. Job Name: Enter a recognizable name for the job (e.g., خادم Spark Connect ) لتحديده لاحقا في واجهة المستخدم.

  3. Main Class: Set the job's main class to:

    org.apache.spark.sql.connect.service.SparkConnectServer 

    This is the built-in Spark class that starts the Spark Connect server process, enabling remote connectivity to Spark clusters.

  4. Spark Configuration: Go to the Configuration tab/section for the job. Add the following Spark property to ensure the Spark Connect server code is available:

    • Key: spark.jars.packages
    • قيمة : org.apache.spark:spark-connect_2.12:3.5.7

    This configuration instructs Spark to fetch the Spark Connect library from Maven when the job starts. Remember to use the correct Apache Spark version.

  5. (Optional) Label the Pod: If you plan to expose this Spark Connect server via a Kubernetes Service, add a label to the Spark driver pod:

    • Key: spark.kubernetes.driver.label.type
    • قيمة : سبارك كونيكت

    This will tag the Spark Connect server's pod with a label النوع = sparkconnect for easy service selection.

  6. Submit the Job: Click إرسال . سيقوم Ilum بنشر وظيفة Spark إلى نظام المجموعة. بعد وقت قصير ، يجب أن ترى الوظيفة في قائمة الوظائف قيد التشغيل.

  7. Verify the Server is Running: Wait for the job status to become "Running". You can check the job's logs for a message indicating Spark Connect has started (e.g., a log line mentioning port 15002). Once running, the Spark Connect server is listening for client connections on the default port 15002 .

Job form with Spark Connect option

Spark Connect server link

Missing Spark Connect Dependency?

If your job fails immediately, ensure you added spark.jars.packages with the correct version.


الاتصال بخادم Spark Connect

بمجرد تشغيل خادم Spark Connect ، يمكنك الاتصال به من عميل Spark (على سبيل المثال ، PySpark ، Spark shell ، sparklyr ، إلخ) باستخدام عنوان URL ل Spark Connect ( sc://... ). فيما يلي طرق اتصال مختلفة وفقا لإعداد الشبكة:

If your environment allows DNS resolution of pod names (for example, your client is within the cluster or can resolve the cluster's internal DNS), you can connect using the pod's DNS name. Kubernetes assigns each pod a DNS name of the form <pod-name>. <namespace>.pod.cluster.local ( Kubernetes DNS ). This DNS name resolves to the pod's IP address inside the cluster.

الخطوات:

  • Find the Pod Name: In the Ilum UI, locate the Spark Connect job you started. Note the driver pod name (Ilum may show it in the job details or logs). It will be something like وظيفة xxxxx-سائق (قد يختلف التنسيق الدقيق).
  • Construct the URL: Use the pod's fully qualified DNS name. For example, if the pod name is وظيفة ABC123 سائق في المربع افتراضي مساحة الاسم، سيكون العنوان:
    sc://job-abc123-driver.default.pod.cluster.local:15002 
  • Connect via Spark Client: Use this URL in your SparkSession builder or Spark shell. For example, in PySpark you can do:
    notebook.ipynb
    من بايسبارك . SQL استورد جلسة سبارك 

    شراره = جلسة سبارك . builder. بعيد (
    "sc://job-abc123-driver.default.pod.cluster.local:15002"
    ) . getOrCreate ( )

This will create a Spark session that connects remotely to the Spark Connect server at the given DNS address. Ensure that your environment's DNS can resolve .pod.cluster.local (عادة ما يكون صحيحا فقط في حالة التشغيل داخل نظام المجموعة أو عبر VPN إلى شبكة نظام المجموعة).

Connection via Pod DNS

بقشيش

ملاحظه : This is crucial for managing your Apache Spark applications. If your client is running inside the same namespace in the cluster, you might not need the full domain. For instance, just sc://job-abc123-driver:15002 could work due to Kubernetes' DNS search path. However, using the full pod.cluster.local العنوان مع مساحة الاسم هو النهج الأكثر وضوحا وموثوقية.


مهام التنظيف

بعد الانتهاء من جلسة (جلسات) Spark Connect، قم بتنفيذ خطوات التنظيف التالية لتحرير الموارد وتجنب الاتصالات المعزولة:

  1. Stop the Spark Connect Job: In the Ilum UI, navigate to the running Spark Connect job and click وقف أو أنهى . This will shut down the Spark Connect server process on the cluster. Confirm that the job's status changes to stopped/finished. (If you forget this step, the Spark Connect server will keep running and occupying cluster resources, impacting your spark application performance.)

  2. Terminate Port-Forward Sessions: If you used kubectl ميناء إلى الأمام , go to the terminal where it's running and press Ctrl + C لإنهاء إعادة توجيه المنفذ. يؤدي هذا إلى إغلاق النفق وتحرير المنفذ المحلي. إذا قمت بتشغيل المنفذ إلى الأمام في الخلفية ، فتأكد من قتل هذه العملية.

  3. Delete Kubernetes Service (if created): If you exposed a Service for Spark Connect, remove it when it's no longer needed. You can delete it with:

    kubectl حذف خدمة spark-connect-service -n افتراضي 

    استبدل خدمة Spark-Connect and namespace as appropriate. This ensures you don't leave an open network endpoint in the cluster. (If you set up a LoadBalancer, deleting the Service will also release the external IP/port. If you used a NodePort, it frees that port on the nodes for other uses.)

من خلال التنظيف، فإنك تضمن عدم ترك أي عمليات أو منافذ شاردة مفتوحة فيما يتعلق باستخدام Spark Connect، مما يؤدي إلى تحسين الموارد الموجودة على مجموعة Spark الخاصة بك.


Troubleshooting Spark Connect Issues

Here are solutions to the most common errors when connecting to Spark on Kubernetes.

How to fix "Connection Refused" on port 15002?

If your client fails with ConnectionRefusedErrorأو UNAVAILABLE:

Cause: The client cannot reach the Spark Driver pod. This is usually a networking issue, not a Spark issue.

حل :

  1. Check Job Status: Is the job actually RUNNINGفي المربع واجهة مستخدم Ilum ?
  2. Check Network Access:
    • If you are outside the cluster (e.g., local laptop), you cannot use the Pod IP directly. You must use kubectl ميناء إلى الأمام (Method 3) or a NodePort/LoadBalancer Service (Method 4).
  3. Verify Port: Ensure you are connecting to 15002 (Spark Connect), not 4040 (Spark UI).
  4. Test Connection: Run nc -vz localhost 15002 (if using port-forward).
How to resolve "Name or service not known" (DNS Error)?

Cause: Your local machine doesn't know how to resolve Kubernetes internal DNS names like job-xyz.default.pod.cluster.local.

حل :

  • Option A:استخدام kubectl ميناء إلى الأمام and connect to sc://localhost:15002 .
  • Option B: Connect using the Pod IP directly (only works if you are on the same VPN/VPC).
  • Option C: Configure your local /etc/hosts to point the DNS name to 127.0.0.1 (combined with port forwarding).
How to fix "Pod not found" during port-forwarding?

Cause: Spark Driver pods are ephemeral. If you restart the job, the pod name changes (e.g., from job-abc-driverل job-xyz-driver).

حل :

  • Always check the current driver pod name in the Ilum UI or via kubectl get pods -l spark-role=driver.
  • استخدم خدمة (Method 4) to get a stable hostname that doesn't change between restarts.
Error: "Client version mismatch" or "Unsupported Protocol"

Cause: You are trying to connect a Spark 3.4 client to a Spark 3.5 server (or vice versa).

حل : Check your client version:

pip show pyspark

It must match the Ilum cluster version (e.g., both must be 3.5.x).

Error: "ModuleNotFoundError: No module named 'grpc'"

Cause: The grpcio-status library is missing. It is a required optional dependency for Spark Connect.

حل :

pip install grpcio-status

باتباع هذا الدليل ، يجب أن تكون قادرا على تكوين خادم Spark Connect على Ilum والاتصال به من خلال طرق مختلفة. تسهل واجهة مستخدم Ilum نشر مثيل Spark Connect، وباستخدام التقنيات المذكورة أعلاه، يمكنك الوصول إليه سواء كنت داخل مجموعة Kubernetes أو تعمل عن بعد. تواصل سعيد!