सीएफएस के साथ उच्च CPU उपयोग?


25

मैंने एक पिछला प्रश्न पूछा था कि आरएचईएल 5 से आरएचईएल 6. में एक एप्लिकेशन को स्थानांतरित करते समय सीपीयू के उपयोग में वृद्धि के स्रोत को अलग करना। इसके लिए मैंने जो विश्लेषण किया, उससे लगता है कि यह संकेत करता है कि यह कर्नेल में सीएफएस के कारण हो रहा है। यदि यह मामला था (तो मूल परीक्षण अनुप्रयोग को आकार सीमा में फिट करने के लिए हटा दिया गया था, लेकिन फिर भी जीपीओ रेपो में उपलब्ध है, इसे सत्यापित करने के लिए मैंने एक परीक्षण एप्लिकेशन लिखा है ।

मैंने इसे RHEL 5 पर निम्नलिखित कमांड के साथ संकलित किया है:

cc test_select_work.c -O2 -DSLEEP_TYPE=0 -Wall -Wextra -lm -lpthread -o test_select_work

मैं तब मापदंडों के साथ खेलता था जब तक कि पुनरावृत्ति का निष्पादन समय एक डेल प्रेसिजन m6500 पर लगभग 1 एमएस नहीं था।

मुझे आरएचईएल 5 पर निम्नलिखित परिणाम मिला:

./test_select_work 1000 10000 300 4
time_per_iteration: min: 911.5 us avg: 913.7 us max: 917.1 us stddev: 2.4 us
./test_select_work 1000 10000 300 8
time_per_iteration: min: 1802.6 us avg: 1803.9 us max: 1809.1 us stddev: 2.1 us
./test_select_work 1000 10000 300 40
time_per_iteration: min: 7580.4 us avg: 8567.3 us max: 9022.0 us stddev: 299.6 us

और आरएचईएल 6 पर निम्नलिखित:

./test_select_work 1000 10000 300 4
time_per_iteration: min: 914.6 us avg: 975.7 us max: 1034.5 us stddev: 50.0 us
./test_select_work 1000 10000 300 8
time_per_iteration: min: 1683.9 us avg: 1771.8 us max: 1810.8 us stddev: 43.4 us
./test_select_work 1000 10000 300 40
time_per_iteration: min: 7997.1 us avg: 8709.1 us max: 9061.8 us stddev: 310.0 us

दोनों संस्करणों पर, ये परिणाम उस चीज़ के बारे में थे जो मैंने अपेक्षाकृत औसत रूप से स्केलिंग प्रति पुनरावृत्ति स्केल की औसत राशि के साथ अपेक्षित थी। मैंने तब recompiled -DSLEEP_TYPE=1और RHEL 5 पर निम्नलिखित परिणाम प्राप्त किए:

./test_select_work 1000 10000 300 4
time_per_iteration: min: 1803.3 us avg: 1902.8 us max: 2001.5 us stddev: 113.8 us
./test_select_work 1000 10000 300 8
time_per_iteration: min: 1997.1 us avg: 2002.0 us max: 2010.8 us stddev: 5.0 us
./test_select_work 1000 10000 300 40
time_per_iteration: min: 6958.4 us avg: 8397.9 us max: 9423.7 us stddev: 619.7 us

और आरएचईएल 6 पर निम्नलिखित परिणाम:

./test_select_work 1000 10000 300 4
time_per_iteration: min: 2107.1 us avg: 2143.1 us max: 2177.7 us stddev: 30.3 us
./test_select_work 1000 10000 300 8
time_per_iteration: min: 2903.3 us avg: 2903.8 us max: 2904.3 us stddev: 0.3 us
./test_select_work 1000 10000 300 40
time_per_iteration: min: 8877.7.1 us avg: 9016.3 us max: 9112.6 us stddev: 62.9 us

आरएचईएल 5 पर, परिणाम वही थे जो मुझे उम्मीद थी (4 धागे 1 एमएस नींद के कारण दो बार लंबे समय तक ले रहे थे, लेकिन 8 धागे एक ही राशि लेते हैं क्योंकि प्रत्येक धागा अब लगभग आधे समय के लिए सो रहा है, और अभी भी निष्पक्ष रूप से रैखिक वृद्धि)।

हालांकि, आरएचईएल 6 के साथ, 4 थ्रेड्स के साथ लिया गया समय अपेक्षित दोहरीकरण की तुलना में लगभग 15% अधिक और 8 थ्रेड केस में अनुमानित मामूली वृद्धि की तुलना में लगभग 45% की वृद्धि हुई। 4 थ्रेड केस में वृद्धि से ऐसा लगता है कि आरएचईएल 6 वास्तव में 1 एमएस से अधिक मुट्ठी भर के लिए सो रहा है, जबकि आरएचईएल 5 केवल सोने के बारे में हमें 900 है, लेकिन यह 8 और 40 में अप्रत्याशित रूप से बड़ी वृद्धि की व्याख्या नहीं करता है थ्रेड केस।

मैंने सभी 3 -DSLEEP_TYPE मूल्यों के साथ समान प्रकार का व्यवहार देखा। मैंने sysctl में शेड्यूलर मापदंडों के साथ खेलने की भी कोशिश की, लेकिन कुछ भी ऐसा नहीं लगा कि नतीजों पर इसका महत्वपूर्ण असर पड़ा हो। इस बारे में कोई विचार कि मैं इस समस्या का और निदान कैसे कर सकता हूं?

अद्यतन: 2012-05-07

मैंने परीक्षण के आउटपुट के रूप में कोशिश और अवलोकन के एक और बिंदु को प्राप्त करने के लिए / proc / stat // कार्यों // स्टेट से उपयोगकर्ता और सिस्टम CPU उपयोग के माप जोड़े। मैंने जिस तरह से माध्य और मानक विचलन को अद्यतन किया जा रहा था, जब मैंने बाहरी पुनरावृत्ति लूप को जोड़ा गया था, तो मुझे एक मुद्दा मिला, इसलिए मैं उन नए भूखंडों को जोड़ूंगा जिनके पास सही माध्य और मानक विचलन माप हैं। मैंने अद्यतन कार्यक्रम को शामिल किया है। मैंने कोड को ट्रैक करने के लिए एक git रेपो भी बनाया और यह यहाँ उपलब्ध है।

#include <limits.h>
#include <math.h>
#include <poll.h>
#include <pthread.h>
#include <sched.h>
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <unistd.h>
#include <sys/select.h>
#include <sys/syscall.h>
#include <sys/time.h>


// Apparently GLIBC doesn't provide a wrapper for this function so provide it here
#ifndef HAS_GETTID
pid_t gettid(void)
{
  return syscall(SYS_gettid);
}
#endif


// The different type of sleep that are supported
enum sleep_type {
  SLEEP_TYPE_NONE,
  SLEEP_TYPE_SELECT,
  SLEEP_TYPE_POLL,
  SLEEP_TYPE_USLEEP,
  SLEEP_TYPE_YIELD,
  SLEEP_TYPE_PTHREAD_COND,
  SLEEP_TYPE_NANOSLEEP,
};

// Information returned by the processing thread
struct thread_res {
  long long clock;
  long long user;
  long long sys;
};

// Function type for doing work with a sleep
typedef struct thread_res *(*work_func)(const int pid, const int sleep_time, const int num_iterations, const int work_size);

// Information passed to the thread
struct thread_info {
  pid_t pid;
  int sleep_time;
  int num_iterations;
  int work_size;
  work_func func;
};


inline void get_thread_times(pid_t pid, pid_t tid, unsigned long long *utime, unsigned long long *stime)
{
  char filename[FILENAME_MAX];
  FILE *f;

  sprintf(filename, "/proc/%d/task/%d/stat", pid, tid);
  f = fopen(filename, "r");
  if (f == NULL) {
    *utime = 0;
    *stime = 0;
    return;
  }

  fscanf(f, "%*d %*s %*c %*d %*d %*d %*d %*d %*u %*u %*u %*u %*u %Lu %Lu", utime, stime);

  fclose(f);
}

// In order to make SLEEP_TYPE a run-time parameter function pointers are used.
// The function pointer could have been to the sleep function being used, but
// then that would mean an extra function call inside of the "work loop" and I
// wanted to keep the measurements as tight as possible and the extra work being
// done to be as small/controlled as possible so instead the work is declared as
// a seriees of macros that are called in all of the sleep functions. The code
// is a bit uglier this way, but I believe it results in a more accurate test.

// Fill in a buffer with random numbers (taken from latt.c by Jens Axboe <jens.axboe@oracle.com>)
#define DECLARE_FUNC(NAME) struct thread_res *do_work_##NAME(const int pid, const int sleep_time, const int num_iterations, const int work_size)

#define DECLARE_WORK() \
  int *buf; \
  int pseed; \
  int inum, bnum; \
  pid_t tid; \
  struct timeval clock_before, clock_after; \
  unsigned long long user_before, user_after; \
  unsigned long long sys_before, sys_after; \
  struct thread_res *diff; \
  tid = gettid(); \
  buf = malloc(work_size * sizeof(*buf)); \
  diff = malloc(sizeof(*diff)); \
  get_thread_times(pid, tid, &user_before, &sys_before); \
  gettimeofday(&clock_before, NULL)

#define DO_WORK(SLEEP_FUNC) \
  for (inum=0; inum<num_iterations; ++inum) { \
    SLEEP_FUNC \
     \
    pseed = 1; \
    for (bnum=0; bnum<work_size; ++bnum) { \
      pseed = pseed * 1103515245 + 12345; \
      buf[bnum] = (pseed / 65536) % 32768; \
    } \
  } \

#define FINISH_WORK() \
  gettimeofday(&clock_after, NULL); \
  get_thread_times(pid, tid, &user_after, &sys_after); \
  diff->clock = 1000000LL * (clock_after.tv_sec - clock_before.tv_sec); \
  diff->clock += clock_after.tv_usec - clock_before.tv_usec; \
  diff->user = user_after - user_before; \
  diff->sys = sys_after - sys_before; \
  free(buf); \
  return diff

DECLARE_FUNC(nosleep)

{
  DECLARE_WORK();

  // Let the compiler know that sleep_time isn't used in this function
  (void)sleep_time;

  DO_WORK();

  FINISH_WORK();
}

DECLARE_FUNC(select)
{
  struct timeval ts;
  DECLARE_WORK();

  DO_WORK(
    ts.tv_sec = 0;
    ts.tv_usec = sleep_time;
    select(0, 0, 0, 0, &ts);
    );

  FINISH_WORK();
}

DECLARE_FUNC(poll)
{
  struct pollfd pfd;
  const int sleep_time_ms = sleep_time / 1000;
  DECLARE_WORK();

  pfd.fd = 0;
  pfd.events = 0;

  DO_WORK(
    poll(&pfd, 1, sleep_time_ms);
    );

  FINISH_WORK();
}

DECLARE_FUNC(usleep)
{
  DECLARE_WORK();

  DO_WORK(
    usleep(sleep_time);
    );

  FINISH_WORK();
}

DECLARE_FUNC(yield)
{
  DECLARE_WORK();

  // Let the compiler know that sleep_time isn't used in this function
  (void)sleep_time;

  DO_WORK(
    sched_yield();
    );

  FINISH_WORK();
}

DECLARE_FUNC(pthread_cond)
{
  pthread_cond_t cond  = PTHREAD_COND_INITIALIZER;
  pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
  struct timespec ts;
  const int sleep_time_ns = sleep_time * 1000;
  DECLARE_WORK();

  pthread_mutex_lock(&mutex);

  DO_WORK(
    clock_gettime(CLOCK_REALTIME, &ts);
    ts.tv_nsec += sleep_time_ns;
    if (ts.tv_nsec >= 1000000000) {
      ts.tv_sec += 1;
      ts.tv_nsec -= 1000000000;
    }
    pthread_cond_timedwait(&cond, &mutex, &ts);
    );

  pthread_mutex_unlock(&mutex);

  pthread_cond_destroy(&cond);
  pthread_mutex_destroy(&mutex);

  FINISH_WORK();
}

DECLARE_FUNC(nanosleep)
{
  struct timespec req, rem;
  const int sleep_time_ns = sleep_time * 1000;
  DECLARE_WORK();

  DO_WORK(
    req.tv_sec = 0;
    req.tv_nsec = sleep_time_ns;
    nanosleep(&req, &rem);
    );

  FINISH_WORK();
}

void *do_test(void *arg)
{
  const struct thread_info *tinfo = (struct thread_info *)arg;

  // Call the function to do the work
  return (*tinfo->func)(tinfo->pid, tinfo->sleep_time, tinfo->num_iterations, tinfo->work_size);
}

struct thread_res_stats {
  double min;
  double max;
  double avg;
  double stddev;
  double prev_avg;
};

#ifdef LLONG_MAX
  #define THREAD_RES_STATS_INITIALIZER {LLONG_MAX, LLONG_MIN, 0, 0, 0}
#else
  #define THREAD_RES_STATS_INITIALIZER {LONG_MAX, LONG_MIN, 0, 0, 0}
#endif

void update_stats(struct thread_res_stats *stats, long long value, int num_samples, int num_iterations, double scale_to_usecs)
{
  // Calculate the average time per iteration
  double value_per_iteration = value * scale_to_usecs / num_iterations;

  // Update the max and min
  if (value_per_iteration < stats->min)
    stats->min = value_per_iteration;
  if (value_per_iteration > stats->max)
    stats->max = value_per_iteration;
  // Update the average
  stats->avg += (value_per_iteration - stats->avg) / (double)(num_samples);
  // Update the standard deviation
  stats->stddev += (value_per_iteration - stats->prev_avg) * (value_per_iteration - stats->avg);
  // And record the current average for use in the next update
  stats->prev_avg= stats->avg;
}

void print_stats(const char *name, const struct thread_res_stats *stats)
{
  printf("%s: min: %.1f us avg: %.1f us max: %.1f us stddev: %.1f us\n",
      name,
      stats->min,
      stats->avg,
      stats->max,
      stats->stddev);
}

int main(int argc, char **argv)
{
  if (argc <= 6) {
    printf("Usage: %s <sleep_time> <outer_iterations> <inner_iterations> <work_size> <num_threads> <sleep_type>\n", argv[0]);
    printf("  outer_iterations: Number of iterations for each thread (used to calculate statistics)\n");
    printf("  inner_iterations: Number of work/sleep cycles performed in each thread (used to improve consistency/observability))\n");
    printf("  work_size: Number of array elements (in kb) that are filled with psuedo-random numbers\n");
    printf("  num_threads: Number of threads to spawn and perform work/sleep cycles in\n");
    printf("  sleep_type: 0=none 1=select 2=poll 3=usleep 4=yield 5=pthread_cond 6=nanosleep\n");
    return -1;
  }

  struct thread_info tinfo;
  int outer_iterations;
  int sleep_type;
  int s, inum, tnum, num_samples, num_threads;
  pthread_attr_t attr;
  pthread_t *threads;
  struct thread_res *res;
  struct thread_res **times;
  // Track the stats for each of the measurements
  struct thread_res_stats stats_clock = THREAD_RES_STATS_INITIALIZER;
  struct thread_res_stats stats_user = THREAD_RES_STATS_INITIALIZER;
  struct thread_res_stats stats_sys = THREAD_RES_STATS_INITIALIZER;
  // Calculate the conversion factor from clock_t to seconds
  const long clocks_per_sec = sysconf(_SC_CLK_TCK);
  const double clocks_to_usec = 1000000 / (double)clocks_per_sec;

  // Get the parameters
  tinfo.pid = getpid();
  tinfo.sleep_time = atoi(argv[1]);
  outer_iterations = atoi(argv[2]);
  tinfo.num_iterations = atoi(argv[3]);
  tinfo.work_size = atoi(argv[4]) * 1024;
  num_threads = atoi(argv[5]);
  sleep_type = atoi(argv[6]);
  switch (sleep_type) {
    case SLEEP_TYPE_NONE:   tinfo.func = &do_work_nosleep; break;
    case SLEEP_TYPE_SELECT: tinfo.func = &do_work_select;  break;
    case SLEEP_TYPE_POLL:   tinfo.func = &do_work_poll;    break;
    case SLEEP_TYPE_USLEEP: tinfo.func = &do_work_usleep;  break;
    case SLEEP_TYPE_YIELD:  tinfo.func = &do_work_yield;   break;
    case SLEEP_TYPE_PTHREAD_COND:  tinfo.func = &do_work_pthread_cond;   break;
    case SLEEP_TYPE_NANOSLEEP:  tinfo.func = &do_work_nanosleep;   break;
    default:
      printf("Invalid sleep type: %d\n", sleep_type);
      return -7;
  }

  // Initialize the thread creation attributes
  s = pthread_attr_init(&attr);
  if (s != 0) {
    printf("Error initializing thread attributes\n");
    return -2;
  }

  // Allocate the memory to track the threads
  threads = calloc(num_threads, sizeof(*threads));
  times = calloc(num_threads, sizeof(*times));
  if (threads == NULL) {
    printf("Error allocating memory to track threads\n");
    return -3;
  }

  // Initialize the number of samples
  num_samples = 0;
  // Perform the requested number of outer iterations
  for (inum=0; inum<outer_iterations; ++inum) {
    // Start all of the threads
    for (tnum=0; tnum<num_threads; ++tnum) {
      s = pthread_create(&threads[tnum], &attr, &do_test, &tinfo);

      if (s != 0) {
        printf("Error starting thread\n");
        return -4;
      }
    }

    // Wait for all the threads to finish
    for (tnum=0; tnum<num_threads; ++tnum) {
      s = pthread_join(threads[tnum], (void **)(&res));
      if (s != 0) {
        printf("Error waiting for thread\n");
        return -6;
      }

      // Save the result for processing when they're all done
      times[tnum] = res;
    }

    // For each of the threads
    for (tnum=0; tnum<num_threads; ++tnum) {
      // Increment the number of samples in the statistics
      ++num_samples;
      // Update the statistics with this measurement
      update_stats(&stats_clock, times[tnum]->clock, num_samples, tinfo.num_iterations, 1);
      update_stats(&stats_user, times[tnum]->user, num_samples, tinfo.num_iterations, clocks_to_usec);
      update_stats(&stats_sys, times[tnum]->sys, num_samples, tinfo.num_iterations, clocks_to_usec);
      // And clean it up
      free(times[tnum]);
    }
  }

  // Clean up the thread creation attributes
  s = pthread_attr_destroy(&attr);
  if (s != 0) {
    printf("Error cleaning up thread attributes\n");
    return -5;
  }

  // Finish the calculation of the standard deviation
  stats_clock.stddev = sqrtf(stats_clock.stddev / (num_samples - 1));
  stats_user.stddev = sqrtf(stats_user.stddev / (num_samples - 1));
  stats_sys.stddev = sqrtf(stats_sys.stddev / (num_samples - 1));

  // Print out the statistics of the times
  print_stats("gettimeofday_per_iteration", &stats_clock);
  print_stats("utime_per_iteration", &stats_user);
  print_stats("stime_per_iteration", &stats_sys);

  // Clean up the allocated threads and times
  free(threads);
  free(times);

  return 0;
}

मैंने कई अलग-अलग ओएस संस्करणों के साथ डेल वोस्ट्रो 200 (दोहरे कोर सीपीयू) पर परीक्षणों को फिर से चलाया। मुझे पता है कि इनमें से कई में अलग-अलग पैच लगाए जाएंगे और "शुद्ध कर्नेल कोड" नहीं होगा, लेकिन यह सबसे सरल तरीका था कि मैं कर्नेल के विभिन्न संस्करणों पर परीक्षण चला सकता हूं और तुलना कर सकता हूं। मैंने gnuplot के साथ भूखंडों का निर्माण किया और इस मुद्दे के बारे में Bugzilla से संस्करण को शामिल किया है ।

ये सभी परीक्षण निम्नलिखित स्क्रिप्ट और इस कमांड के साथ निम्नलिखित कमांड के साथ चलाए गए थे ./run_test 1000 10 1000 250 8 6 <os_name>

#!/bin/bash

if [ $# -ne 7 ]; then
  echo "Usage: `basename $0` <sleep_time> <outer_iterations> <inner_iterations> <work_size> <max_num_threads> <max_sleep_type> <test_name>"
  echo "  max_num_threads: The highest value used for num_threads in the results"
  echo "  max_sleep_type: The highest value used for sleep_type in the results"
  echo "  test_name: The name of the directory where the results will be stored"
  exit -1
fi

sleep_time=$1
outer_iterations=$2
inner_iterations=$3
work_size=$4
max_num_threads=$5
max_sleep_type=$6
test_name=$7

# Make sure this results directory doesn't already exist
if [ -e $test_name ]; then
  echo "$test_name already exists";
  exit -1;
fi
# Create the directory to put the results in
mkdir $test_name
# Run through the requested number of SLEEP_TYPE values
for i in $(seq 0 $max_sleep_type)
do
  # Run through the requested number of threads
  for j in $(seq 1 $max_num_threads)
  do
    # Print which settings are about to be run
    echo "sleep_type: $i num_threads: $j"
    # Run the test and save it to the results file
    ./test_sleep $sleep_time $outer_iterations $inner_iterations $work_size $j $i >> "$test_name/results_$i.txt"
  done
done

यहाँ मैंने जो देखा उसका सारांश दिया है। मैं इस बार उनकी जोड़ी में तुलना करूंगा क्योंकि मुझे लगता है कि यह थोड़ा अधिक जानकारीपूर्ण है।

सेंटोस 5.6 बनाम सेंटोस 6.2

CentOS 5.6 पर प्रति घड़ी दीवार घड़ी का समय (गेटटाइमऑफ) 6.2 से अधिक विविध है, लेकिन इसका मतलब यह है कि सीएफएस को प्रक्रियाओं को समान सीपीयू समय देने के बेहतर काम करना चाहिए जिसके परिणामस्वरूप अधिक सुसंगत परिणाम प्राप्त होते हैं। यह भी स्पष्ट है कि सेंटोस 6.2 अधिक सटीक और सुसंगत है कि यह अलग-अलग नींद तंत्र के साथ सोता है। gettimeofday CentOS 5.6 gettimeofday CentOS 6.2

"जुर्माना" निश्चित रूप से 6.2 पर थ्रेड्स की कम संख्या (गेटटाइमऑफडे और उपयोगकर्ता समय के भूखंडों पर दिखाई देता है) के साथ स्पष्ट है, लेकिन यह अधिक संख्या में थ्रेड्स के साथ कम हो जाता है (उपयोगकर्ता समय में अंतर सिर्फ एक लेखांकन चीज हो सकती है क्योंकि उपयोगकर्ता का समय माप इतना पाठ्यक्रम है)।

utime CentOS 5.6 utime सेंटोस 6.2

सिस्टम टाइम प्लॉट से पता चलता है कि 6.2 में स्लीप मेकेनिज्म 5.6 की तुलना में अधिक सिस्टम का उपभोग कर रहा है, जो कि 50 प्रक्रियाओं के सरल परीक्षण के पिछले परिणामों से मेल खाता है, केवल 6.2 पर सीपीयू की गैर-तुच्छ राशि का उपभोग करते हुए कॉलिंग का चयन करता है, लेकिन 5.6 नहीं ।

stime CentOS 5.6 स्टाइम सेंटोस 6.2

कुछ ऐसा है जो मुझे लगता है कि ध्यान देने योग्य है कि शेड्यूल_यिल्ड () का उपयोग उसी दंड को प्रेरित नहीं करता है जैसा कि नींद के तरीकों से देखा जाता है। इससे मेरा निष्कर्ष यह है कि यह शेड्यूलर स्वयं नहीं है जो कि इस मुद्दे का स्रोत है, लेकिन शेड्यूलर के साथ नींद के तरीकों की बातचीत यह मुद्दा है।

Ubuntu 7.10 बनाम Ubuntu 8.04-4

इन दोनों के बीच कर्नेल संस्करण में अंतर CentOS 5.6 और 6.2 की तुलना में छोटा है, लेकिन वे अभी भी सीएफएस पेश किए जाने के समय की अवधि को देखते हैं। पहला दिलचस्प परिणाम यह है कि सिलेक्ट और पोल केवल नींद तंत्र है जो 8.04 को "जुर्माना" लगता है और यह जुर्माना सेंटोस 6.2 के साथ देखे गए थ्रेड की तुलना में अधिक संख्या में जारी है।

gettimeofday Ubuntu 7.10 gettimeofday उबंटू 8.04-4

चयन और मतदान और Ubuntu 7.10 के लिए उपयोगकर्ता का समय अनुचित रूप से कम है, इसलिए यह कुछ प्रकार का लेखांकन मुद्दा प्रतीत होता है जो तब अस्तित्व में था, लेकिन मेरा मानना ​​है कि वर्तमान मुद्दे / चर्चा के लिए प्रासंगिक नहीं है।

उबटन उबटन 7.10 utime Ubuntu 8.04-4

उबंटू 7.10 की तुलना में उबंटू 8.04 के साथ सिस्टम का समय अधिक प्रतीत होता है, लेकिन यह अंतर FAR से कम है जो CentOS 5.6 बनाम 6.2 के साथ देखा गया था।

stime Ubuntu 7.10 स्टिम उबंटू 8.04-4

Ubuntu 11.10 और Ubuntu 12.04 पर नोट्स

यहां ध्यान देने वाली पहली बात यह है कि उबंटू 12.04 के लिए प्लॉट 11.10 से उन लोगों के लिए तुलनीय थे, इसलिए वे अनावश्यक अतिरेक को रोकने के लिए नहीं दिखाते हैं।

कुल मिलाकर, उबंटू 11.10 के लिए प्लॉट उसी तरह की प्रवृत्ति दिखाते हैं, जो सेंटोस 6.2 के साथ देखी गई थी (जो इंगित करता है कि यह सामान्य रूप से एक कर्नेल मुद्दा है और न केवल आरएचईएल मुद्दा है)। एक अपवाद यह है कि सिस्टम टाइम उबंटू 11.10 के साथ CentOS 6.2 की तुलना में थोड़ा अधिक प्रतीत होता है, लेकिन एक बार फिर, इस माप पर रिज़ॉल्यूशन बहुत पाठ्यक्रम है, इसलिए मुझे लगता है कि इसके अलावा कोई निष्कर्ष "थोड़ा अधिक प्रतीत होता है" "पतली बर्फ पर कदम रखा जाएगा।

Ubuntu 11.10 बनाम Ubuntu 11.10 BFS के साथ

एक पीपीए जो उबंटू कर्नेल के साथ बीएफएस का उपयोग करता है, उसे https://launchpad.net/~chogydan/+archive/ppa पर पाया जा सकता है और इसे इस तुलना को उत्पन्न करने के लिए स्थापित किया गया था। मुझे BFS के साथ CentOS 6.2 चलाने का एक आसान तरीका नहीं मिल रहा था इसलिए मैं इस तुलना के साथ दौड़ा और चूंकि Ubuntu 11.10 के परिणाम CentOS 6.2 के साथ इतनी अच्छी तरह से तुलना करते हैं, मेरा मानना ​​है कि यह एक उचित और सार्थक तुलना है।

gettimeofday Ubuntu 11.10 BFS के साथ gettimeofday Ubuntu 11.10

ध्यान देने की प्रमुख बात यह है कि बीएफएस केवल चुनिंदा और नैनोसेलेप थ्रेड्स की कम संख्या पर "जुर्माना" को प्रेरित करता है, लेकिन यह एक समान "जुर्माना" (यदि अधिक नहीं) के रूप में लगता है कि सीएफएस के साथ उच्चतर के लिए देखा जाता है। धागों की संख्या।

utime Ubuntu 11.10 BFS के साथ ut Ubuntu Ubuntu 11.10

दूसरी दिलचस्प बात यह है कि सीएफएस की तुलना में सिस्टम का समय बीएफएस से कम होता है। एक बार फिर, यह डेटा की coarseness की वजह से पतली बर्फ पर कदम रखना शुरू कर रहा है, लेकिन कुछ अंतर मौजूद नहीं है और यह परिणाम सरल 50 प्रक्रिया के साथ मेल खाता है लूप टेस्ट सीएफएस की तुलना में BFS के साथ CPU उपयोग कम दिखा ।

स्टिंब उबंटू 11.10 BFS के साथ stime Ubuntu 11.10

इन दो बिंदुओं से मैं जो निष्कर्ष निकालता हूं वह यह है कि बीएफएस समस्या का समाधान नहीं करता है लेकिन कम से कम कुछ क्षेत्रों में इसके प्रभावों को कम करता है।

निष्कर्ष

जैसा कि पहले कहा गया था, मैं नहीं मानता कि यह शेड्यूलर के साथ ही एक मुद्दा है, लेकिन स्लीपिंग मैकेनिज्म और शेड्यूलर के बीच बातचीत के साथ। मैं इस प्रक्रिया में सीपीयू के उपयोग में वृद्धि पर विचार करता हूं जो सो रही होनी चाहिए और सीपीयू 5.6 के किसी प्रतिगमन से किसी भी सीपीयू के प्रतिगमन और किसी भी कार्यक्रम के लिए एक बड़ी बाधा के रूप में इस्तेमाल किया जाना चाहिए जो एक इवेंट लूप या तंत्र की मतदान शैली का उपयोग करना चाहता है।

क्या कोई अन्य डेटा है जिसे मैं प्राप्त कर सकता हूं या परीक्षण कर सकता हूं जिससे समस्या का निदान करने में मदद मिल सके?

अपडेट 29 जून 2012 को

मैंने परीक्षण कार्यक्रम को थोड़ा सरल किया और यहां पाया जा सकता है (पोस्ट की लंबाई सीमा से अधिक होने लगी थी इसलिए इसे स्थानांतरित करना पड़ा)।


3
वाह, गहन विश्लेषण - लेकिन इतने डेटा के साथ मूल प्रश्न मेरे लिए फ़र्ज़ी हो रहा है। क्या आप इसे 1) एक सिंगल टेस्ट 2) सिंगल डिस्ट्रो 3) दो अलग-अलग गुठली 4) 15% मंदी के कारण उबाल सकते हैं? यदि अंतिम पैराग्राफ में आपकी परिकल्पना सही है, तो कर्नेल स्रोतों को अलग करना शुरू करने का समय आ गया है, लेकिन ऐसा लगता है कि अन्य चर पहले समाप्त कर दिए जाने चाहिए।
ckhan

मैंने परीक्षण अनुप्रयोग से कुछ आउटपुट जोड़े और अब सभी जानकारी को पचाने के लिए जोड़े में तुलना करने और इसे आसान बनाने के लिए तुलना करें।
डेव जोहान्स

मैंने उस बुगज़िला पर एक नज़र डालने की कोशिश की, लेकिन रेडहट कह रहा है कि यह "एक आंतरिक बुज़िला है, और जनता को दिखाई नहीं देता है।" क्या इस पर कोई अपडेट आया है?

मैं पूरी RedHat बग चीज़ के लिए नया हूं, इसलिए हो सकता है कि जो कुछ मैंने किया था, उसे बनाते समय मैंने ऐसा कुछ किया हो (या नहीं किया), लेकिन मैंने अभी तक जो एकमात्र अपडेट सुना है, वह एक अपडेट है पैरामीटर जो इसे हाइपर थ्रेडेड प्रोसेसर के साथ बेहतर व्यवहार करता है, लेकिन अभी तक कोई वास्तविक निर्धारण नहीं है।
डेव जोहान्स

2
सीएफएस पूरी तरह से निष्पक्ष अनुसूचक है? यह दिलचस्प लगता है - मैं SLES11 SP2 पर एक जावा-आधारित एप्लिकेशन के साथ एक प्रदर्शन समस्या में भाग गया, भी। अंतर (SP1) में CFS में परिवर्तन है ...
Nils

जवाबों:


1

के अनुसार SLES 11 SP2 रिलीज नोट्स यह वह परिवर्तन जिस तरह से सीएफएस लागू किया गया है करने के लिए शुरू हो सकता है।

चूंकि SLES 11 SP2 वर्तमान SLES-संस्करण है, इसलिए यह व्यवहार अभी भी मान्य है (जैसा कि सभी 3.x-kernels के लिए लगता है)।

इस परिवर्तन का इरादा था - लेकिन इसके "बुरे" दुष्प्रभाव हो सकते हैं। संभवत: वर्णित वर्कअराउंड में से एक आपके लिए मदद करता है ...


ऐसा प्रतीत होता है कि लिंक में कुछ गड़बड़ है और सही एक यहाँ है , लेकिन मैं उन वर्कअराउंड को एक कोशिश करूँगा और देखूंगा कि क्या वे प्रदर्शन में मदद करते हैं।
डेव जोहान्सन

इस पर कोई और खबर?
वॉनब्रांड

@vonbrand आपको डेव से पूछना है ...
निल्स
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.