एक डॉकटर कंटेनर से GPU का उपयोग करना?


164

मैं एक डॉकटर कंटेनर के अंदर से GPU का उपयोग करने का तरीका खोज रहा हूं।

कंटेनर मनमाना कोड निष्पादित करेगा, इसलिए मैं विशेषाधिकार प्राप्त मोड का उपयोग नहीं करना चाहता।

कोई सुझाव?

पिछले शोध से मुझे समझ में आया कि run -vऔर / या LXC cgroupजाने का रास्ता था, लेकिन मुझे यकीन नहीं है कि कैसे इसे ठीक से खींच लिया जाए


देखें stackoverflow.com/questions/17792161/… जो आपकी जरूरत के समान है।
निकोलस गोए

1
@NicolasGoy लिंक अच्छा था, लेकिन यह उपयोगी नहीं था क्योंकि मैं सुरक्षा कारणों से विशेषाधिकार का उपयोग नहीं कर सकता। Lxc-cgroups एक अच्छा सूचक था, लेकिन पर्याप्त नहीं था। मुझे एक रास्ता मिल गया, और मैं खुद जवाब दूंगा जब सब कुछ पॉलिश किया जाएगा।
रेगन

जवाबों:


132

रेगन का जवाब बहुत अच्छा है, लेकिन यह थोड़ा पुराना है, क्योंकि ऐसा करने का सही तरीका lxc एक्ज़ीक्यूटिव संदर्भ से बचना है क्योंकि Docker ने LXC को डॉकटर 0.9 के रूप में डिफ़ॉल्ट निष्पादन संदर्भ के रूप में गिरा दिया है

इसके बजाय यह बेहतर है कि dovice ध्वज के माध्यम से nvidia उपकरणों के बारे में डॉकटर बताएं और केवल lxc के बजाय मूल निष्पादन संदर्भ का उपयोग करें।

वातावरण

इन निर्देशों का निम्नलिखित पर्यावरण पर परीक्षण किया गया:

  • उबंटू 14.04
  • सीयूडीए 6.5
  • AWS GPU का उदाहरण।

अपने मेजबान पर एनवीडिया ड्राइवर और क्यूडा स्थापित करें

अपने होस्ट मशीन सेटअप को पाने के लिए Ubuntu 14.04 रनिंग AWS GPU इंस्टेंस पर CUDA 6.5 देखें ।

डॉकर स्थापित करें

$ sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-keys 36A1D7869245C8950F966E92D8576A8BA88D21E9
$ sudo sh -c "echo deb https://get.docker.com/ubuntu docker main > /etc/apt/sources.list.d/docker.list"
$ sudo apt-get update && sudo apt-get install lxc-docker

अपने एनवीडिया उपकरणों का पता लगाएं

ls -la /dev | grep nvidia

crw-rw-rw-  1 root root    195,   0 Oct 25 19:37 nvidia0 
crw-rw-rw-  1 root root    195, 255 Oct 25 19:37 nvidiactl
crw-rw-rw-  1 root root    251,   0 Oct 25 19:37 nvidia-uvm

पूर्व-स्थापित nvidia ड्राइवर के साथ Docker कंटेनर चलाएँ

मैंने एक डॉकटर छवि बनाई है जिसमें पहले से ही क्यूडा ड्राइवरों को स्थापित किया गया है। Dockerfile अगर आप जानना चाहते हैं कि इस छवि को बनाया गया था चाहते dockerhub पर उपलब्ध है।

आप अपने एनवीडिया उपकरणों से मिलान करने के लिए इस कमांड को कस्टमाइज़ करना चाहेंगे। यहाँ मेरे लिए क्या काम किया गया है:

 $ sudo docker run -ti --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm tleyden5iwx/ubuntu-cuda /bin/bash

सत्यापित करें कि CUDA सही तरीके से स्थापित है

यह आपके द्वारा लॉन्च किए गए डॉकटर कंटेनर के अंदर से चलाया जाना चाहिए।

CUDA नमूने स्थापित करें:

$ cd /opt/nvidia_installers
$ ./cuda-samples-linux-6.5.14-18745345.run -noprompt -cudaprefix=/usr/local/cuda-6.5/

DeviceQuery नमूना बनाएँ:

$ cd /usr/local/cuda/samples/1_Utilities/deviceQuery
$ make
$ ./deviceQuery   

यदि सब कुछ काम किया है, तो आपको निम्न आउटपुट देखना चाहिए:

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 6.5, CUDA Runtime Version = 6.5, NumDevs =    1, Device0 = GRID K520
Result = PASS

3
अगर आपको lxc की जरूरत नहीं है तो आप lxc-docker को क्यों इंस्टॉल करते हैं?
एमपी ०

4
मेरे पास होस्ट पर CUDA 5.5 और आपकी छवि से निर्मित कंटेनर में CUDA 6.5 है। CUDA होस्ट पर काम कर रहा है, और मैंने उपकरणों को कंटेनर में पास कर दिया है। कंटेनर GPU के माध्यम से देखता है, ls -la /dev | grep nvidiaलेकिन CUDA किसी भी CUDA- सक्षम डिवाइस को नहीं ढूंढ सकता है: ./deviceQuery ./deviceQuery Starting... CUDA Device Query (Runtime API) version (CUDART static linking) cudaGetDeviceCount returned 38 -> no CUDA-capable device is detected Result = FAIL क्या यह मेजबान और कंटेनर में CUDA के कामों के बेमेल होने के कारण है?
ब्रुनेट्टो

1
मुझे नहीं पता, आप एनवीडिया मंचों पर पूछना चाह सकते हैं। संस्करण बेमेल को एक समस्या मानते हुए, आप इस डॉकफ़िल को ले सकते हैं और इसे CUDA 5.5 ड्राइवरों के लिए संपादित कर सकते हैं , फिर उसमें से एक नई डॉकटर छवि का पुनर्निर्माण कर सकते हैं और उसका उपयोग कर सकते हैं।
टाइलेडेन

3
क्या आप बता सकते हैं कि छवि को एनवीडिया चालक को स्थापित करने की आवश्यकता क्यों है? मैंने सोचा कि केवल होस्ट एनवीडिया ड्राइवर स्थापित करना (और उपयोग --देविस ...) पर्याप्त है?
हेलिन वांग

2
वर्तमान में ऐसा करने का कोई तरीका नहीं है यदि आपके पास होस्ट के रूप में विंडोज है।
सौरदीप नंदा

46

पहले से मौजूद उत्तर के बाद से एक अद्यतन उत्तर लिखना अब तक अप्रचलित है।

Docker 19.03आवश्यकता nvidia-docker2और --runtime=nvidiaध्वज के उपयोग की तुलना में पहले के संस्करण ।

चूंकि Docker 19.03, आपको nvidia-container-toolkitपैकेज स्थापित करने और फिर --gpus allध्वज का उपयोग करने की आवश्यकता है ।

तो, यहाँ मूल बातें हैं,

पैकेज स्थापना

गिथब में आधिकारिक दस्तावेज केnvidia-container-toolkit अनुसार पैकेज स्थापित करें ।

Redhat आधारित OSes के लिए, कमांड के निम्नलिखित सेट को निष्पादित करें:

$ distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
$ curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.repo | sudo tee /etc/yum.repos.d/nvidia-docker.repo

$ sudo yum install -y nvidia-container-toolkit
$ sudo systemctl restart docker

डेबियन आधारित OSes के लिए, कमांड के निम्नलिखित सेट को निष्पादित करें:

# Add the package repositories
$ distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
$ curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
$ curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

$ sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
$ sudo systemctl restart docker

GPU समर्थन के साथ docker चलाना

docker run --name my_all_gpu_container --gpus all -t nvidia/cuda

कृपया ध्यान दें, ध्वज --gpus allका उपयोग सभी उपलब्ध gpus को docker कंटेनर को असाइन करने के लिए किया जाता है।

डॉकटर कंटेनर के लिए विशिष्ट gpu असाइन करने के लिए (आपकी मशीन में उपलब्ध कई GPU के मामले में)

docker run --name my_first_gpu_container --gpus device=0 nvidia/cuda

या

docker run --name my_first_gpu_container --gpus '"device=0"' nvidia/cuda

5
2019 तक यह डॉकटर कंटेनरों के भीतर से GPU का उपयोग करने का सही तरीका है।
तैमूर बकेयेव

1
किसी ने कभी AWS पर एक बैच नौकरी के अंदर से यह कोशिश की है?
मेडली 56

1
मेरा मानना ​​है कि यह सबसे अधिक प्रासंगिक है। काश मुझे यह जल्द मिल जाता, हालांकि मुझे Ubuntu 20.04 के साथ काम करने के लिए github.com/NVelia/nvidia-docker के निर्देशों को अपनाना पड़ा
VictorLegros

40

ठीक है मैं अंत में - theprivileged मोड का उपयोग किए बिना इसे करने में कामयाब रहा।

मैं ubuntu सर्वर 14.04 पर चल रहा हूं और मैं नवीनतम क्यूडा (लिनक्स 13.04 64 बिट्स के लिए 6.0.37) का उपयोग कर रहा हूं।


तैयारी

अपने मेजबान पर एनवीडिया ड्राइवर और क्यूडा स्थापित करें। (यह थोड़ा मुश्किल हो सकता है इसलिए मैं आपको इस गाइड का अनुसरण करने का सुझाव दूंगा /ubuntu/451672/installing-and-testing-cuda-in-ubuntu-14-04 )

ध्यान दें: यह वास्तव में महत्वपूर्ण है कि आप होस्ट क्यूडा स्थापना के लिए आपके द्वारा उपयोग की जाने वाली फ़ाइलों को रखें


डोंकर डेमॉन को लेंक का उपयोग करके चलाने के लिए प्राप्त करें

हम विन्यास को संशोधित करने और डिवाइस तक कंटेनर पहुंच देने में सक्षम होने के लिए lxc ड्राइवर का उपयोग करते हुए डॉक डेमॉन को चलाने की आवश्यकता है।

एक बार उपयोग:

sudo service docker stop
sudo docker -d -e lxc

स्थायी कॉन्फ़िगरेशन / do / etc / default / docker में स्थित अपने docker कॉन्फ़िगरेशन फ़ाइल को संशोधित करें '-e lxc' जोड़कर लाइन DOCKER_OPTS बदलें यहाँ संशोधन के बाद मेरी लाइन है

DOCKER_OPTS="--dns 8.8.8.8 --dns 8.8.4.4 -e lxc"

फिर डेमॉन का उपयोग करके पुनः आरंभ करें

sudo service docker restart

कैसे जांचें कि क्या डेमॉन प्रभावी रूप से lxc ड्राइवर का उपयोग करता है?

docker info

निष्पादन ड्राइवर लाइन इस तरह दिखनी चाहिए:

Execution Driver: lxc-1.0.5

NVIDIA और CUDA ड्राइवर के साथ अपनी छवि बनाएं।

यहां CUDA की संगत छवि बनाने के लिए एक बुनियादी डॉकफाइल है।

FROM ubuntu:14.04
MAINTAINER Regan <http://stackoverflow.com/questions/25185405/using-gpu-from-a-docker-container>

RUN apt-get update && apt-get install -y build-essential
RUN apt-get --purge remove -y nvidia*

ADD ./Downloads/nvidia_installers /tmp/nvidia                             > Get the install files you used to install CUDA and the NVIDIA drivers on your host
RUN /tmp/nvidia/NVIDIA-Linux-x86_64-331.62.run -s -N --no-kernel-module   > Install the driver.
RUN rm -rf /tmp/selfgz7                                                   > For some reason the driver installer left temp files when used during a docker build (i don't have any explanation why) and the CUDA installer will fail if there still there so we delete them.
RUN /tmp/nvidia/cuda-linux64-rel-6.0.37-18176142.run -noprompt            > CUDA driver installer.
RUN /tmp/nvidia/cuda-samples-linux-6.0.37-18176142.run -noprompt -cudaprefix=/usr/local/cuda-6.0   > CUDA samples comment if you don't want them.
RUN export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64         > Add CUDA library into your PATH
RUN touch /etc/ld.so.conf.d/cuda.conf                                     > Update the ld.so.conf.d directory
RUN rm -rf /temp/*  > Delete installer files.

अपनी छवि चलाएं।

सबसे पहले आपको अपने डिवाइस से जुड़े अपने प्रमुख नंबर को पहचानना होगा। सबसे आसान तरीका निम्नलिखित कमांड करना है:

ls -la /dev | grep nvidia

यदि परिणाम रिक्त है, तो मेजबान पर नमूनों में से किसी एक को लॉन्च करने का उपयोग करें। परिणाम इस तरह दिखना चाहिए यहां छवि विवरण दर्ज करें जैसा कि आप देख सकते हैं कि समूह और तिथि के बीच 2 संख्याओं का एक समूह है। इन 2 नंबरों को मेजर और माइनर नंबर (उस क्रम में लिखे गए) कहा जाता है और एक डिवाइस को डिजाइन करता है। हम सुविधा के लिए प्रमुख संख्याओं का उपयोग करेंगे।

हम lxc ड्राइवर को सक्रिय क्यों करते हैं? Lxc conf विकल्प का उपयोग करने के लिए जो हमें हमारे कंटेनर को उन उपकरणों तक पहुंचने की अनुमति देने की अनुमति देता है। विकल्प है: (मैं छोटी संख्या के लिए * का उपयोग करने की सलाह देता हूं क्योंकि इससे रन कमांड की लंबाई कम हो जाती है)

--lxc-conf = 'lxc.cgroup.devices.allow = c [प्रमुख संख्या]: [मामूली संख्या या *] rmm'

तो अगर मैं एक कंटेनर लॉन्च करना चाहता हूं (अपनी छवि का नाम क्यूडा है)।

docker run -ti --lxc-conf='lxc.cgroup.devices.allow = c 195:* rwm' --lxc-conf='lxc.cgroup.devices.allow = c 243:* rwm' cuda

क्या आप कंटेनर को साझा कर सकते हैं?
चिल्लरअनंद

1
डॉकर के पास एक --deviceविकल्प है कि वह कंटेनर को होस्ट के उपकरण तक पहुंचने की अनुमति दे। हालांकि मैंने --device=/dev/nvidia0डूडा कंटेनर को क्यूडा चलाने की अनुमति देने में उपयोग करने की कोशिश की और असफल रहा।
शिवांनवांग

4
मैं तो सभी को उजागर करने के साथ सफल रहा /dev/nvidiao, /dev/nvidia1, /dev/nvidiactlऔर /dev/nvidia-uvmसाथ --device। हालांकि पता नहीं क्यों।
shikanwang

जब मुझे इस समाधान को ढूंढना था - Thedevice विकल्प लागू नहीं किया गया था। आपको कम से कम nvidia0 या nvidia1 (ग्राफिक कार्ड) और nvidiactl (सामान्य एनवीडिया डिवाइस) और nvidia-uvm (यूनाइटेड मेमोरी डिवाइस) की आवश्यकता है।
रेगन

2
/dev/nvidia*@Regan पर आपके संकेत के लिए धन्यवाद । @ChillarAnand के लिए मैंने
कूका

29

हमने अभी एक प्रयोगात्मक GitHub रिपॉजिटरी जारी की है जो डॉकटर कंटेनरों के अंदर NVIDIA GPU का उपयोग करने की प्रक्रिया को आसान बनाना चाहिए।


4
क्या विंडोज़ का समर्थन है? यह प्रतीत नहीं होता है, लेकिन शायद मुझे कुछ याद आ रहा है।
ब्लेज़

6
कोई विंडोज सपोर्ट नहीं है। CUDA कंटेनर को चलाने के लिए Linux के लिए Nvidia ड्राइवरों की आवश्यकता होती है और GPU, उदा / dev / nvidia0 का प्रतिनिधित्व करने वाले Linux उपकरणों तक पहुँच होती है। ये डिवाइस और ड्राइवर तब उपलब्ध नहीं होते हैं जब डॉकर विंडोज पर इंस्टॉल होता है और वर्चुअलबॉक्स वर्चुअल मशीन के अंदर चलता है।
पवेल ब्य्लिका

अभी भी रन कमांड में - thevice घोषणाओं की आवश्यकता है? मैंने nvidia / cuda से एक कंटेनर बनाया है और कंटेनर ठीक चलता है, लेकिन ऐप (Wowza) GPU को नहीं पहचान रहा है, जबकि यह सीधे होस्ट पर चलने पर ठीक होता है (यह होस्ट है, इसलिए मुझे पता है कि ड्राइवर ठीक हैं) । मैं 361.28 चला रहा हूं। मेजबान EC2 g2.8xlarge पर NVidia AMI का उपयोग कर रहा है।
रेनबा

सब कुछ nvidia-docker द्वारा ध्यान नहीं दिया जाता है, आपको कंटेनर के अंदर nvidia-smi चलाने और अपने उपकरणों को देखने में सक्षम होना चाहिए
3XX0

22

एनवीआईडीआईए द्वारा हाल के एन्हांसमेंट ने ऐसा करने के लिए बहुत अधिक मजबूत तरीका तैयार किया है।

अनिवार्य रूप से उन्होंने कंटेनरों के अंदर CUDA / GPU चालक को स्थापित करने की आवश्यकता से बचने का एक तरीका ढूंढ लिया है और यह मेजबान कर्नेल मॉड्यूल से मेल खाता है।

इसके बजाय, ड्राइवर होस्ट पर हैं और कंटेनर को उनकी आवश्यकता नहीं है। इसके लिए अभी एक संशोधित docker-cli की आवश्यकता है।

यह बहुत अच्छा है, क्योंकि अब कंटेनर बहुत अधिक पोर्टेबल हैं।

यहां छवि विवरण दर्ज करें

उबंटू पर एक त्वरित परीक्षण:

# Install nvidia-docker and nvidia-docker-plugin
wget -P /tmp https://github.com/NVIDIA/nvidia-docker/releases/download/v1.0.1/nvidia-docker_1.0.1-1_amd64.deb
sudo dpkg -i /tmp/nvidia-docker*.deb && rm /tmp/nvidia-docker*.deb

# Test nvidia-smi
nvidia-docker run --rm nvidia/cuda nvidia-smi

अधिक जानकारी के लिए देखें: GPU- सक्षम डॉकटर कंटेनर और: https://github.com/NVodia/nvidia-daver


सभी चरणों को प्राप्त करने के बाद यह अच्छी तरह से काम करता है। एनवीडिया यह सब एक जगह पर प्रदान नहीं करता है, लेकिन यह उदाहरण आपको एक सामान्य उपयोग के मामले में काम करने के लिए आवश्यक सब कुछ देता है।
कोबेहोन

@KobeJohn - मैंने बस इंस्टॉलेशन निर्देशों का पालन किया, कमांड लाइन का उपयोग कैसे करें और सुनिश्चित करें कि मेरे कंटेनरों को कोडा से विरासत में मिला है। यह सिर्फ मेरे लिए काम करता है।
मैट

1
वास्तव में, क्या आप वास्तविक जीवन के परिदृश्य दे सकते हैं जहां nvidia-docker का उपयोग समझ में आता है?
Suncatcher

@Suncatcher - मैं इसे एक ऐसे क्लस्टर में उपयोग कर रहा हूं जिसमें 3D रेंडरिंग के लिए GPU तक पहुंच की आवश्यकता होती है। ऐप्स को डॉक करने से चीजों को तैनात करना और बनाए रखना सरल हो गया।
मैट

17

Ubuntu 16.04 पर cuda-8.0 के लिए अपडेट किया गया

Dockerfile

FROM ubuntu:16.04
MAINTAINER Jonathan Kosgei <jonathan@saharacluster.com>

# A docker container with the Nvidia kernel module and CUDA drivers installed

ENV CUDA_RUN https://developer.nvidia.com/compute/cuda/8.0/prod/local_installers/cuda_8.0.44_linux-run

RUN apt-get update && apt-get install -q -y \
  wget \
  module-init-tools \
  build-essential 

RUN cd /opt && \
  wget $CUDA_RUN && \
  chmod +x cuda_8.0.44_linux-run && \
  mkdir nvidia_installers && \
  ./cuda_8.0.44_linux-run -extract=`pwd`/nvidia_installers && \
  cd nvidia_installers && \
  ./NVIDIA-Linux-x86_64-367.48.run -s -N --no-kernel-module

RUN cd /opt/nvidia_installers && \
  ./cuda-linux64-rel-8.0.44-21122537.run -noprompt

# Ensure the CUDA libs and binaries are in the correct environment variables
ENV LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-8.0/lib64
ENV PATH=$PATH:/usr/local/cuda-8.0/bin

RUN cd /opt/nvidia_installers &&\
    ./cuda-samples-linux-8.0.44-21122537.run -noprompt -cudaprefix=/usr/local/cuda-8.0 &&\
    cd /usr/local/cuda/samples/1_Utilities/deviceQuery &&\ 
    make

WORKDIR /usr/local/cuda/samples/1_Utilities/deviceQuery
  1. अपना कंटेनर चलाएं

sudo docker run -ti --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm <built-image> ./deviceQuery

आपको इसके समान आउटपुट देखना चाहिए:

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 8.0, CUDA Runtime Version = 8.0, NumDevs = 1, Device0 = GRID K520 Result = PASS


3
मुझे आउटपुट मिलता है। cudaGetDeviceCount 38 में लौटा - कोई भी CUDA- सक्षम डिवाइस का पता नहीं चला है परिणाम = विफल
Soichi Hayashi

देर से जवाब, लेकिन इसका मतलब है कि आप शायद उस मशीन पर GPU नहीं है
जोनाथन

क्या Cuda-9 संस्करण लगभग यही होगा?
हुसैन तुगरुल बायुकिसिक

@huseyintugrulbuyukisik इस उत्तर को askubuntu askubuntu.com/questions/967332/… पर देखें , मैं कहूंगा कि आप इस उत्तर का उपयोग एक मार्गदर्शक के रूप में कर सकते हैं लेकिन मैंने cuda 9 के साथ काम नहीं किया है यह पुष्टि करने के लिए कि वही कदम लागू होंगे
जोनाथन

इस तरह मत करो। यह पुराना तरीका है। नए तरीके का इस्तेमाल करें। मेरे उत्तर के लिए लिंक देखें यह विधि समस्याओं से भरा है।
मैट

3

डॉकटर कंटेनर से GPU का उपयोग करने के लिए, देशी डोकर का उपयोग करने के बजाय, Nvidia-docker का उपयोग करें। Nvidia docker को स्थापित करने के लिए निम्नलिखित कमांड का उपयोग करें

curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey |  sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/ubuntu16.04/amd64/nvidia-
docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt-get update
sudo apt-get install -y nvidia-docker
sudo pkill -SIGHUP dockerd # Restart Docker Engine
sudo nvidia-docker run --rm nvidia/cuda nvidia-smi # finally run nvidia-smi in the same container

1

Mviereck द्वारा x11docker का उपयोग करें :

https://github.com/mviereck/x11docker#hardware-acceleration कहती है

हार्डवेयर का त्वरण

OpenGL के लिए हार्डवेयर त्वरण विकल्प -g, --gpu के साथ संभव है।

यह ज्यादातर मामलों में बॉक्स से बाहर काम करेगा जिसमें ओपन सोर्स ड्राइवर होस्ट पर होंगे। अन्यथा विकी पर एक नजर है: सुविधा निर्भरता। बंद स्रोत NVIDIA ड्राइवरों को कुछ सेटअप की आवश्यकता होती है और कम x11docker X सर्वर विकल्पों का समर्थन करता है।

यह स्क्रिप्ट वास्तव में सुविधाजनक है क्योंकि यह सभी कॉन्फ़िगरेशन और सेटअप को संभालती है। Gpu के साथ X पर एक docker छवि चलाना जितना सरल है

x11docker --gpu imagename
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.