如何在 openshift 3 上使用 django 运行 celery

2023-11-29

在我的 django pod 中启动 celerybeat 和工作进程的最简单方法是什么?

我正在将 Openshift v2 Django 应用程序迁移到 Openshift v3。我正在使用专业版订阅。我真的是 Openshift v3、docker、容器和 kubernetes 方面的菜鸟。我已经使用过这个教程https://blog.openshift.com/migration-django-applications-openshift-3/迁移我的应用程序(效果很好)。

我现在正在为如何开始吃芹菜而苦苦挣扎。在 Openshift 2 上,我只使用了一个动作钩子 post_start:

source $OPENSHIFT_HOMEDIR/python/virtenv/bin/activate

python $OPENSHIFT_REPO_DIR/wsgi/podpub/manage.py celery worker\
--pidfile="$OPENSHIFT_DATA_DIR/celery/run/%n.pid"\
--logfile="$OPENSHIFT_DATA_DIR/celery/log/%n.log"\

python $OPENSHIFT_REPO_DIR/wsgi/podpub/manage.py celery beat\
--pidfile="$OPENSHIFT_DATA_DIR/celery/run/celeryd.pid"\
--logfile="$OPENSHIFT_DATA_DIR/celery/log/celeryd.log" &
-c 1\
--autoreload &

这是一个非常简单的设置。它只是使用 django 数据库作为消息代理。没有rabbitMQ什么的。

开放轮班“工作”是否适合这样做?或者更好地使用 powershift 图像(https://pypi.python.org/pypi/powershift-image) 动作命令?但我不明白如何执行它们。

这是我唯一的应用程序的当前部署配置“

apiVersion: v1
kind: DeploymentConfig
metadata:
  annotations:
    openshift.io/generated-by: OpenShiftNewApp
  creationTimestamp: 2017-12-27T22:58:31Z
  generation: 67
  labels:
    app: django
  name: django
  namespace: myproject
  resourceVersion: "68466321"
  selfLink: /oapi/v1/namespaces/myproject/deploymentconfigs/django
  uid: 64600436-ab49-11e7-ab43-0601fd434256
spec:
  replicas: 1
  selector:
    app: django
    deploymentconfig: django
  strategy:
    activeDeadlineSeconds: 21600
    recreateParams:
      timeoutSeconds: 600
    resources: {}
    rollingParams:
      intervalSeconds: 1
      maxSurge: 25%
      maxUnavailable: 25%
      timeoutSeconds: 600
      updatePeriodSeconds: 1
    type: Recreate
  template:
    metadata:
      annotations:
    openshift.io/generated-by: OpenShiftNewApp
      creationTimestamp: null
      labels:
    app: django
    deploymentconfig: django
    spec:
      containers:
      - image: docker-registry.default.svc:5000/myproject/django@sha256:6a0caac773acc65daad2e6ac87695f9f01ae3c99faba14536e0ec2b65088c808
    imagePullPolicy: Always
    name: django
    ports:
    - containerPort: 8080
      protocol: TCP
    resources: {}
    terminationMessagePath: /dev/termination-log
    terminationMessagePolicy: File
    volumeMounts:
    - mountPath: /opt/app-root/src/data
      name: data
      dnsPolicy: ClusterFirst
      restartPolicy: Always
      schedulerName: default-scheduler
      securityContext: {}
      terminationGracePeriodSeconds: 30
      volumes:
      - name: data
    persistentVolumeClaim:
      claimName: django-data
  test: false
  triggers:
  - type: ConfigChange
  - imageChangeParams:
      automatic: true
      containerNames:
      - django
      from:
    kind: ImageStreamTag
    name: django:latest
    namespace: myproject
      lastTriggeredImage: docker-registry.default.svc:5000/myproject/django@sha256:6a0caac773acc65daad2e6ac87695f9f01ae3c99faba14536e0ec2b65088c808
    type: ImageChange

我正在使用 mod_wsgi-express 这是我的 app.sh

ARGS="$ARGS --log-to-terminal"
ARGS="$ARGS --port 8080"
ARGS="$ARGS --url-alias /static wsgi/static"

exec mod_wsgi-express start-server $ARGS wsgi/application

非常感谢帮助。谢谢


我已经设法让它发挥作用,尽管我对此不太满意。我很快就会转向 postgreSQL 数据库。这是我所做的:

wsgi_mod-express 有一个名为 service-script 的选项,它除了实际应用程序之外还启动一个附加进程。所以我更新了我的app.sh:

#!/bin/bash

ARGS=""

ARGS="$ARGS --log-to-terminal"
ARGS="$ARGS --port 8080"
ARGS="$ARGS --url-alias /static wsgi/static"
ARGS="$ARGS --service-script celery_starter scripts/startCelery.py"

exec mod_wsgi-express start-server $ARGS wsgi/application

请注意最后 ARGS=... 行。

我创建了一个 python 脚本来启动我的 celery 工作程序并进行节拍。 启动Celery.py:

import subprocess

OPENSHIFT_REPO_DIR="/opt/app-root/src"

OPENSHIFT_DATA_DIR="/opt/app-root/src/data"

pathToManagePy=OPENSHIFT_REPO_DIR + "/wsgi/podpub"

worker_cmd = [
    "python",
    pathToManagePy + "/manage.py",
    "celery",
    "worker",
    "--pidfile="+OPENSHIFT_REPO_DIR+"/%n.pid",
    "--logfile="+OPENSHIFT_DATA_DIR+"/celery/log/%n.log",
    "-c 1",
    "--autoreload"
    ]
print(worker_cmd)


subprocess.Popen(worker_cmd, close_fds=True)

beat_cmd = [
    "python",
    pathToManagePy + "/manage.py",
    "celery",
    "beat",
    "--pidfile="+OPENSHIFT_REPO_DIR+"/celeryd.pid",
    "--logfile="+OPENSHIFT_DATA_DIR+"/celery/log/celeryd.log",
    ]
print(beat_cmd)

subprocess.Popen(beat_cmd)

这实际上是有效的,但是当我尝试启动 celery 工作程序时,我不断收到一条消息说 ”当工作程序接受用 pickle 序列化的消息时,以超级用户权限运行工作程序是一个非常糟糕的主意! 如果您确实想继续,则必须设置 C_FORCE_ROOT 环境变量(但请在执行此操作之前考虑一下)。"

尽管我将这些配置添加到我的settings.py中以删除pickle序列化器,但它仍然给我同样的错误消息。

CELERY_TASK_SERIALIZER = 'json'
CELERY_RESULT_SERIALIZER = 'json'
CELERY_ACEEPT_CONTENT = ['json']

我不知道为什么。 最后我将 C_FORCE_ROOT 添加到我的 .s2i/environment

C_FORCE_ROOT=true

现在它正在发挥作用,至少我是这么认为的。我的下一份工作将在几个小时内完成。我仍然愿意接受任何进一步的建议和提示。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

如何在 openshift 3 上使用 django 运行 celery 的相关文章

随机推荐