खराब IO प्रदर्शन - PCIe NVMe सैमसंग 950 प्रो


20

मैंने अभी एक हार्डवेयर बिल्ड तैयार किया है जो नए NVMe ड्राइव से बड़े लाभ की उम्मीद कर रहा है। मेरा पूर्व प्रदर्शन अपेक्षा से कम था (~ 3Gb हस्तांतरित), इसलिए मैंने मदरबोर्ड / सीपीयू / मेमोरी / एचडीडी को बदल दिया है। जबकि प्रदर्शन दोगुना है जो यह था , यह अभी भी आधा है जो मुझे अपने 3 साल पुराने मैकबुक प्रो पर SATA6 ड्राइव के साथ मिलता है।

  • CPU: i7-5820k 6core
  • मोबो: MSI X99A MPOWER
  • मेमोरी: 32 जीबी
  • ड्राइव: सैमसंग 950 प्रो एनवीएमआई पीसीआई

उबंटू (इसकी पुष्टि भी 16.04.1 LTS):

Release:    15.10
Codename:   wily

4.2.0-16-generic

$ sudo blkid
[sudo] password for kross: 
/dev/nvme0n1p4: UUID="2997749f-1895-4581-abd3-6ccac79d4575" TYPE="swap"
/dev/nvme0n1p1: LABEL="SYSTEM" UUID="C221-7CA5" TYPE="vfat"
/dev/nvme0n1p3: UUID="c7dc0813-3d18-421c-9c91-25ce21892b9d" TYPE="ext4"

यहाँ मेरे परीक्षा परिणाम हैं:

sysbench --test=fileio --file-total-size=128G prepare
sysbench --test=fileio --file-total-size=128G --file-test-mode=rndrw --max-time=300 --max-requests=0 run
sysbench --test=fileio --file-total-size=128G cleanup


Operations performed:  228000 Read, 152000 Write, 486274 Other = 866274 Total
Read 3.479Gb  Written 2.3193Gb  Total transferred 5.7983Gb  (19.791Mb/sec)
 1266.65 Requests/sec executed

Test execution summary:
    total time:                          300.0037s
    total number of events:              380000
    total time taken by event execution: 23.6549
    per-request statistics:
         min:                                  0.01ms
         avg:                                  0.06ms
         max:                                  4.29ms
         approx.  95 percentile:               0.13ms

Threads fairness:
    events (avg/stddev):           380000.0000/0.00
    execution time (avg/stddev):   23.6549/0.00

अनुसूचक के लिए निर्धारित है none:

# cat /sys/block/nvme0n1/queue/scheduler
none

यहाँ lspciजानकारी है:

# lspci -vv -s 02:00.0
02:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd Device a802 (rev 01) (prog-if 02 [NVM Express])
    Subsystem: Samsung Electronics Co Ltd Device a801
    Physical Slot: 2-1
    Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR+ FastB2B- DisINTx+
    Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
    Latency: 0, Cache Line Size: 32 bytes
    Interrupt: pin A routed to IRQ 45
    Region 0: Memory at fb610000 (64-bit, non-prefetchable) [size=16K]
    Region 2: I/O ports at e000 [size=256]
    Expansion ROM at fb600000 [disabled] [size=64K]
    Capabilities: [40] Power Management version 3
        Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
        Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
    Capabilities: [50] MSI: Enable- Count=1/8 Maskable- 64bit+
        Address: 0000000000000000  Data: 0000
    Capabilities: [70] Express (v2) Endpoint, MSI 00
        DevCap: MaxPayload 128 bytes, PhantFunc 0, Latency L0s unlimited, L1 unlimited
            ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+
        DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
            RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
            MaxPayload 128 bytes, MaxReadReq 512 bytes
        DevSta: CorrErr+ UncorrErr- FatalErr- UnsuppReq+ AuxPwr+ TransPend-
        LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L0s <4us, L1 <64us
            ClockPM+ Surprise- LLActRep- BwNot- ASPMOptComp+
        LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk+
            ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
        LnkSta: Speed 8GT/s, Width x4, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
        DevCap2: Completion Timeout: Not Supported, TimeoutDis+, LTR+, OBFF Not Supported
        DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
        LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
             Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
             Compliance De-emphasis: -6dB
        LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+, EqualizationPhase1+
             EqualizationPhase2+, EqualizationPhase3+, LinkEqualizationRequest-
    Capabilities: [b0] MSI-X: Enable+ Count=9 Masked-
        Vector table: BAR=0 offset=00003000
        PBA: BAR=0 offset=00002000
    Capabilities: [100 v2] Advanced Error Reporting
        UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
        CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
        CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
        AERCap: First Error Pointer: 00, GenCap+ CGenEn- ChkCap+ ChkEn-
    Capabilities: [148 v1] Device Serial Number 00-00-00-00-00-00-00-00
    Capabilities: [158 v1] Power Budgeting <?>
    Capabilities: [168 v1] #19
    Capabilities: [188 v1] Latency Tolerance Reporting
        Max snoop latency: 0ns
        Max no snoop latency: 0ns
    Capabilities: [190 v1] L1 PM Substates
        L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
              PortCommonModeRestoreTime=10us PortTPowerOnTime=10us
    Kernel driver in use: nvme

hdparm:

$ sudo hdparm -tT --direct /dev/nvme0n1

/dev/nvme0n1:
 Timing O_DIRECT cached reads:   2328 MB in  2.00 seconds = 1163.98 MB/sec
 Timing O_DIRECT disk reads: 5250 MB in  3.00 seconds = 1749.28 MB/sec

hdparm -v:

 sudo hdparm -v /dev/nvme0n1

/dev/nvme0n1:
SG_IO: questionable sense data, results may be incorrect
 multcount     =  0 (off)
 readonly      =  0 (off)
 readahead     = 256 (on)
 geometry      = 488386/64/32, sectors = 1000215216, start = 0

fstab

UUID=453cf71b-38ca-49a7-90ba-1aaa858f4806 /               ext4    noatime,nodiratime,errors=remount-ro 0       1
# /boot/efi was on /dev/sda1 during installation
#UUID=C221-7CA5  /boot/efi       vfat    defaults        0       1
# swap was on /dev/sda4 during installation
UUID=8f716653-e696-44b1-8510-28a1c53f0e8d none            swap    sw              0       0
UUID=C221-7CA5  /boot/efi       vfat    defaults        0       1

fio

यह कुछ तुलनीय बेंचमार्क है यह रास्ता बंद है। जब मैंने फियो और विकलांगों के साथ परीक्षण किया sync, तो यह एक अलग कहानी है:

sync=1
1 job  - write: io=145712KB, bw=2428.5KB/s, iops=607, runt= 60002msec
7 jobs - write: io=245888KB, bw=4097.9KB/s, iops=1024, runt= 60005msec

sync=0
1 job  - write: io=8157.9MB, bw=139225KB/s, iops=34806, runt= 60001msec
7 jobs - write: io=32668MB, bw=557496KB/s, iops=139373, runt= 60004msec

यहाँ syncएक नौकरी और 7 नौकरियों के लिए पूर्ण परिणाम हैं:

$ sudo fio --filename=/dev/nvme0n1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=1 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=1
fio-2.1.11
Starting 1 process
Jobs: 1 (f=1): [W(1)] [100.0% done] [0KB/2368KB/0KB /s] [0/592/0 iops] [eta 00m:00s]
journal-test: (groupid=0, jobs=1): err= 0: pid=18009: Wed Nov 18 18:14:03 2015
  write: io=145712KB, bw=2428.5KB/s, iops=607, runt= 60002msec
    clat (usec): min=1442, max=12836, avg=1643.09, stdev=546.22
     lat (usec): min=1442, max=12836, avg=1643.67, stdev=546.23
    clat percentiles (usec):
     |  1.00th=[ 1480],  5.00th=[ 1496], 10.00th=[ 1512], 20.00th=[ 1528],
     | 30.00th=[ 1576], 40.00th=[ 1592], 50.00th=[ 1608], 60.00th=[ 1608],
     | 70.00th=[ 1608], 80.00th=[ 1624], 90.00th=[ 1640], 95.00th=[ 1672],
     | 99.00th=[ 2192], 99.50th=[ 6944], 99.90th=[ 7328], 99.95th=[ 7328],
     | 99.99th=[ 7520]
    bw (KB  /s): min= 2272, max= 2528, per=100.00%, avg=2430.76, stdev=61.45
    lat (msec) : 2=98.44%, 4=0.58%, 10=0.98%, 20=0.01%
  cpu          : usr=0.39%, sys=3.11%, ctx=109285, majf=0, minf=8
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=36428/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: io=145712KB, aggrb=2428KB/s, minb=2428KB/s, maxb=2428KB/s, mint=60002msec, maxt=60002msec

Disk stats (read/write):
  nvme0n1: ios=69/72775, merge=0/0, ticks=0/57772, in_queue=57744, util=96.25%

$ sudo fio --filename=/dev/nvme0n1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=7 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=1
...
fio-2.1.11
Starting 7 processes
Jobs: 6 (f=6): [W(2),_(1),W(4)] [50.4% done] [0KB/4164KB/0KB /s] [0/1041/0 iops] [eta 01m:00s]
journal-test: (groupid=0, jobs=7): err= 0: pid=18025: Wed Nov 18 18:15:10 2015
  write: io=245888KB, bw=4097.9KB/s, iops=1024, runt= 60005msec
    clat (usec): min=0, max=107499, avg=6828.48, stdev=3056.21
     lat (usec): min=0, max=107499, avg=6829.10, stdev=3056.16
    clat percentiles (usec):
     |  1.00th=[    0],  5.00th=[ 2992], 10.00th=[ 4512], 20.00th=[ 4704],
     | 30.00th=[ 5088], 40.00th=[ 6176], 50.00th=[ 6304], 60.00th=[ 7520],
     | 70.00th=[ 7776], 80.00th=[ 9024], 90.00th=[10048], 95.00th=[12480],
     | 99.00th=[15936], 99.50th=[18048], 99.90th=[22400], 99.95th=[23936],
     | 99.99th=[27008]
    bw (KB  /s): min=  495, max=  675, per=14.29%, avg=585.60, stdev=28.07
    lat (usec) : 2=4.41%
    lat (msec) : 2=0.57%, 4=4.54%, 10=80.32%, 20=9.92%, 50=0.24%
    lat (msec) : 250=0.01%
  cpu          : usr=0.14%, sys=0.72%, ctx=173735, majf=0, minf=63
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=61472/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: io=245888KB, aggrb=4097KB/s, minb=4097KB/s, maxb=4097KB/s, mint=60005msec, maxt=60005msec

Disk stats (read/write):
  nvme0n1: ios=21/122801, merge=0/0, ticks=0/414660, in_queue=414736, util=99.90%

संरेखण

मैंने संरेखण की जाँच की है parted, साथ ही साथ http://www.intel.com/content/dam/www/public/us/en/documents/technology-briefs/ssd-partition-alignment-tech पर आधारित गणित को देखा है । -brief.pdf

kross@camacho:~$ sudo parted
GNU Parted 3.2
Using /dev/nvme0n1
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) unit s                                                           
(parted) print all                                                        
Model: Unknown (unknown)
Disk /dev/nvme0n1: 1000215216s
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start       End          Size        File system     Name                                 Flags
 1      2048s       206847s      204800s     fat32           EFI system partition                 boot, esp
 2      206848s     486957055s   486750208s  ntfs                                                 msftdata
 3      486957056s  487878655s   921600s     ntfs                                                 hidden, diag
 4      590608384s  966787071s   376178688s  ext4
 5      966787072s  1000214527s  33427456s   linux-swap(v1)

kross@camacho:~$ sudo parted /dev/nvme0n1
GNU Parted 3.2
Using /dev/nvme0n1
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) align-check opt 1                                                
1 aligned
(parted) align-check opt 2
2 aligned
(parted) align-check opt 3
3 aligned
(parted) align-check opt 4
4 aligned
(parted) align-check opt 5
5 aligned

TLDR;

मुझे लगता है कि मेरे पास कुछ मौलिक रूप से गलत तरीके से सेट है, हालांकि मेरे शोध ने कुछ भी नहीं किया है। मैं थ्रूपुट की उम्मीद कर रहा हूं ~ 4x मेरी 3yr पुरानी मैकबुक प्रो w / SATA6, और मैं इसे NVMe के साथ 1/2 प्राप्त कर रहा हूं। मैंने जोड़ा noatime,nodiratimeजिसने मुझे बहुत छोटा सुधार दिया, लेकिन 4x जैसा कुछ भी मुझे उम्मीद नहीं है। मैंने नए सिरे से 15.10 सर्वर को फिर से विभाजित / फिर से स्थापित किया है, यह सुनिश्चित करने के लिए कि मेरे पास कुछ भी नहीं है, और इसके परिणाम समान थे।

क्या मेरे fioपरिणाम सिंक के ऊपर हैं / किसी समस्या का सिंक सिंक नहीं है?

इसलिए मेरे पास एक साफ स्लेट है और कुछ भी कोशिश कर सकता है। मैं अपने प्रदर्शन को बराबर करने के लिए क्या कोशिश कर सकता हूं? किसी भी संदर्भ का स्वागत है।


का आउटपुट क्या है smartctl --scanऔर फिर पहले कमांड में जो कुछ भी है वह smartctl --all /dev/xxxकहाँ xxxहै ???
फेबी

@ फब्बी apt-get install smartmontoolsसाथ फेल grub-probe: error: cannot find a GRUB drive for /dev/nvme0n1p3. Check your device.map.। यह प्रतीत होता है (मेरे प्रयासों के आधार पर) जो update-grubएक grub-probeत्रुटि के कारण अच्छी तरह से काम नहीं करता है । smartctl -i /dev/nvme0n1रिटर्न /dev/nvme0n1: Unable to detect device type. Please specify device type with the -d option. NVMe smartctl -hएक डिवाइस प्रकार के रूप में प्रकट नहीं होता है ।
क्रॉस

आउटपुट क्या है uname --kernel-release&&lsb_release --code --short???
फैबी

4.2.0-16-generic wily
क्रॉस

मैं पूरी तरह से गलत हो सकता है और मुझे वर्तमान में स्रोत नहीं मिल सकता है, लेकिन जैसा कि मेरे मन में है, आपको SkylakeSSD को पूरी गति से चलाने के लिए एक प्रोसेसर की जरूरत है ...
wawa

जवाबों:


5

आपके प्रश्न के लिए धन्यवाद, यह मेरे लिए अविश्वसनीय रूप से सहायक रहा है।

मेरे पास एक बहुत ही समान अनुभव है, विभिन्न हार्डवेयर सेटअप (मैं एक इंटेल एनवीएमई एसएसडी का उपयोग कर रहा हूं)। लेकिन मैं Ubuntu 16.04 भी चला रहा हूं। आपके साक्ष्य और इस लेख में मिले एक समान परिणाम को देखते हुए मुझे विश्वास हो गया था कि यह मुद्दा था कि कैसे उबंटू NVMe ड्राइव की स्थापना कर रहा था।

मैं पूरी तरह से Ubuntu पर दिए बिना समस्या को हल करने के लिए दृढ़ था। लेकिन कोई फर्क नहीं पड़ता कि मैंने क्या किया, मैं hdparm के साथ परीक्षण करते समय 2000 एमबी / सेकंड से ऊपर गति प्राप्त करने में सक्षम नहीं था, जैसा कि आपने वर्णित किया था।

इसलिए, मैंने कुछ खुदाई की, और इंटेल द्वारा प्रदान किया गया एक गाइड मिला । मैंने इस गाइड में उनके द्वारा सुझाई गई हर कोशिश की और पाया कि एक हिस्सा अलग था। नीचे के पास यह ड्राइव विभाजन को सही ढंग से संरेखित करने पर चर्चा करता है। यह एक हिस्सा है जो मेरी स्थापना के साथ मेल नहीं खाता है। मेरा शुरुआती ब्लॉक 4096 बाइट्स से विभाज्य नहीं था। यह 4k सेक्टर आकार के बजाय 512 बाइट सेक्टर आकार का उपयोग कर रहा था।

निश्चित रूप से पर्याप्त, मैंने 4096 तक विभाज्य मूल्य पर विभाजन शुरू करने के लिए डिस्क को स्वरूपित किया और अंतिम रूप से मैं 2000 एमबी / एस की गति को तोड़ने में सक्षम था।

अभी यह औसत 2.3 GB / s है जब मुझे उम्मीद है कि यह थोड़ा अधिक होगा। मैं इस तथ्य पर दोष sudo fdisk -lलगाता हूं कि जब मैं NVMe ड्राइव चलाता हूं तब भी 512 बाइट्स के भौतिक क्षेत्र के आकार के साथ दिखाया गया है। मैंने जांच जारी रखने की योजना बनाई है लेकिन मुझे आशा है कि इससे आपको मदद मिलेगी!


धन्यवाद, मैं अपने संरेखण को फिर से जांचूंगा। मुझे पता है कि मैंने एक बिंदु पर इसकी जांच की, लेकिन यह निश्चित रूप से इस जानकारी के साथ एक नया रूप लेने के लायक है।
क्रॉस

मैंने अपने संरेखण के साथ प्रश्न को अद्यतन किया। partedकहते हैं कि यह गठबंधन है, जो 512 ब्लॉक आकार पर आधारित है, लेकिन यह 4096 से विभाज्य नहीं है। इसलिए मैं सिर्फ यह पुष्टि करना चाहता हूं: आपके सेक्टर का आकार 512 पर है और आपके द्वारा किया गया एकमात्र काम 4096 से विभाज्य स्थान पर विभाजन शुरू करना है। , सही बात?
kross'

अच्छी व्याख्या: blog.kihltech.com/2014/02/…
kross

1
ऊ, अब मेरी मौजूदा डिस्क के साथ क्या करना है ... कोशिश करें और आकार बदलें / डी डी, या एचएमएम, निश्चित नहीं। हालांकि यह मूल कारण लगता है।
क्रॉस

एक अन्य संसाधन: Intel.com/content/dam/www/public/us/en/documents/…
kross

5

सावधानी: यह उत्तर पुराना है। लिनक्स के रूप में 4.19 blk_mq डिफ़ॉल्ट अनुसूचक है । यह सबसे अधिक संभावना है कि आपके PCIe NVMe SSD के लिए समस्या धीमी गति से चल रही है।

मूल उत्तर:

कृपया जोड़ें

scsi_mod.use_blk_mq=1

अपने कर्नेल बूट मापदंडों के लिए, अन्यथा मुझे नहीं लगता कि आप NVMe की बढ़ी हुई कमांड कतार और प्रति कतार कमांड का लाभ देखेंगे।

नोट: मुझे पता है कि यह आर्क के लिए है, लेकिन आप I / O को ट्यूनिंग के बारे में अधिक जानकारी के लिए विकी पर एक नज़र डालना चाहते हैं ।


2
इसे जोड़ने के लिए धन्यवाद, मैंने इसे Ubuntu 16.04.1 LTS पर आज़माया और कोई अंतर नहीं देखा। मैं काफी आशान्वित था, लेकिन दुर्भाग्य से यह कुछ भी नहीं बदला।
kross

2
मेरे लिए भी, hdparm बेंचमार्क से प्रदर्शन में कोई उल्लेखनीय अंतर नहीं है।
वर्डफेयर वाइज

मेरे लिए भी ऐसा। मैंने बूट स्पीड में 1 सेकंड की कमी दिखाते हुए अपना जवाब नीचे दिया है।
विनयुनुच्स

3

यह धागा एक वर्ष पुराना (अक्टूबर 2016) है। उच्चतम उत्क्रमित उत्तरों में से एक Intel NVMe ड्राइवर की सिफारिश करता है जो दो साल पुराना (2015) है।

फरवरी 2017 में हालांकि सैमसंग ने एक फर्मवेयर अपडेट जारी किया जो लिनक्स आधारित बूट आईएसओ इंस्टॉलर का उपयोग करता है। उसी लिंक पर ड्राइवर हैं जिन्हें आप विंडोज 7/8/10 के लिए इंस्टॉल कर सकते हैं। मैं जल्द ही अपने नए सैमसंग 960 प्रो और बिल्कुल नए डेल बेस्ड i7-6700 लैपटॉप पर स्थापित हो जाऊंगा। BIOS को चमकाने और अन्य डेल आधारित ड्राइवरों को अपडेट करने के साथ।

मुझे लगता है कि इन पुराने धागों को फिर से दिखाना और नए उपयोगकर्ताओं को वर्तमान (11 अक्टूबर, 2017 तक) लिंक प्रदान करना महत्वपूर्ण है, ताकि उनके पास सभी विकल्प खुले रहें।

लिनक्स के तहत सैमसंग 960 प्रो के धीमी गति से प्रदर्शन के लिए कई Google खोज लौटाए जा रहे हैं, इसलिए मैं विंडोज की आधी गति के लिए हर किसी को प्रोत्साहित करता हूं ताकि अधिक से अधिक विकल्प मिल सकें।


scsi_mod.use_blk_mq=1कर्नेल पैरामीटर लागू करने के बाद :

$ systemd-analyze
Startup finished in 7.052s (firmware) + 6.644s (loader) + 2.427s (kernel) + 8.440s (userspace) = 24.565s

कर्नेल पैरामीटर निकालना और रीबूट करना:

$ systemd-analyze
Startup finished in 7.060s (firmware) + 6.045s (loader) + 2.712s (kernel) + 8.168s (userspace) = 23.986s

तो अब ऐसा प्रतीत होता है कि scsi_mod.use_blk_mq=1सिस्टम धीमा नहीं है। एक समय में यह फायदेमंद हो सकता है।


बस एक FYI करें: एक बिंदु पर SCSI बहु को सक्षम करने से वास्तव में कुछ उपकरणों को धीमा कर दिया गया, लेकिन विभिन्न मुद्दे तय किए गए हैं। V4.19 कर्नेल आगे से लिनक्स डिफ़ॉल्ट रूप से scsi-mq को सक्षम करता है । नोट: यह मेरे लिए स्पष्ट नहीं है कि क्या यह विकल्प NVMe ड्राइव (SCSI / SATA ड्राइव के विपरीत) को प्रभावित करेगा।
एनॉन

1

यहां कुछ दिलचस्प जानकारी दी गई है: विंडोज पर, ड्राइव बेंचमार्क की समीक्षा के अनुसार प्रदर्शन नहीं करता है जब तक कि कैश फ्लशिंग अक्षम न हो। आमतौर पर यह सीधे नहीं किया जाता है; इसके बजाय, विक्रेता का ड्राइवर (इस मामले में, सैमसंग NVMe ड्राइवर) स्थापित है।

यदि आप विक्रेता के ड्राइवर के साथ बेंचमार्क करते हैं, और फिर विंडोज में कैश फ्लशिंग को अक्षम करते हैं, तो आपको एक ही नंबर मिलता है। यदि विक्रेता कैश फ्लशिंग की अनदेखी नहीं कर रहा होता तो यह संभावना नहीं होती।

लिनक्स-भूमि में अनुवादित, इसका मतलब है कि विंडोज पर, सभी समीक्षाओं में आपके द्वारा देखे जाने वाले बड़े बेंचमार्क नंबर प्राप्त करने के लिए, आपको अक्षम करने की आवश्यकता है fsync, इसका मतलब विश्वसनीयता के लिए है (कोई fsync, या विशेष रूप से, कोई लेखन बाधा नहीं है, इसका मतलब है कि शक्ति गलत समय पर नुकसान पूरे एफएस को तोड़ सकता है, कार्यान्वयन के आधार पर - फिर से लिखना "असंभव" स्थितियों का निर्माण करता है)।

सैमसंग का "डेटा सेंटर" एसएसडी कैपेसिटर के साथ आता है ताकि कैश्ड डेटा को सही तरीके से प्रवाहित किया जा सके। उनके उपभोक्ता ड्राइव के मामले में ऐसा नहीं है।

मैंने अभी पहले सिद्धांतों से यह काम किया है, कल अपने नए निर्माण में 1TB NVMe जोड़ा है। मैं विशेष रूप से खुश नहीं हूं, और मैंने सैमसंग समर्थन के साथ संपर्क करने की पहल की है ताकि वे कह सकें - लेकिन मुझे संदेह है कि मैं वापस सुनूंगा।


क्या उन्होंने कुछ कहा?
Csaba Toth

0

मैं अभी तक टिप्पणी नहीं कर सकता, इसलिए मुझे जवाब देना होगा। :-(

मेरे पास एक तुलनीय ड्राइव नहीं है, लेकिन मुझे लगता है कि hdparm से मान ठीक हैं। यदि ऐसा है तो मैं मान लूंगा कि आप सिसबेन्च का उपयोग एक उप-अपनाने वाले तरीके से करेंगे। ड्राइव पर अधिक लोड उत्पन्न करने के लिए पैरामीटर --num-threads के साथ प्रयोग करने का प्रयास करें। कम से कम मेरे कंप्यूटर पर एक मानक SATA SSD पर 1 थ्रेड (डिफ़ॉल्ट) और 16 थ्रेड के बीच का अंतर लगभग 1: 4 था। मेरी समझ यह है कि NVMe ड्राइव चमकना शुरू करते हैं और अधिक समानांतर कार्य उन पर भार डाल रहे हैं।


मैं इसे mbpro के समान तरीके से उपयोग कर रहा हूं, और यह 1/2 प्रदर्शन है, जो कि वह चीज है जिसका कोई मतलब नहीं है।
क्रॉस

मैंने सिर्फ fio1 और 7 थ्रेड्स के साथ एक परीक्षण जोड़ा , और इसे आधार के रूप में उपयोग करके बेंचमार्क के एक समूह का संदर्भ दिया।
क्रॉस

0

यदि सिंक = 1 (D_SYNC) ध्वज पर अधिकांश SSD उनके चेहरे पर गिरते हैं। दुर्भाग्य से, यह सिफ पत्रिकाओं के लिए एक प्रसिद्ध मुद्दा है। अधिक जानकारी के लिए इस पृष्ठ को देखें, और ड्राइव की एक सूची जो सिंक सक्षम के साथ अच्छा प्रदर्शन करती है:

http://www.sebastien-han.fr/blog/2014/10/10/ceph-how-to-test-if-your-ssd-is-suitable-as-a-journal-device/


धन्यवाद, लेकिन मैंने पहले ही उस लेख को फियो हेडिंग के तहत संदर्भित कर दिया है और आप वहां के बेंचमार्क से देख सकते हैं कि मेरा एसएसडी Intel 750 NVMe 400GB 261 MB/s (1 job) 884 MB/s (5 jobs)सिंक के साथ एक बड़े मार्जिन से और यहां तक ​​कि पिछली पीढ़ी के खिलाफ अंडरपरफॉर्मिंग कर रहा है Samsung XP941 256GB 2.5 MB/s (1 job) 5 MB/s (7 jobs)। तो जबकि यह अच्छी तरह से जाना जा सकता है, यह अभी भी होना चाहिए की तुलना में कम है
16:24

0

मेरा M.2 स्लॉट 10Mbps पर छाया हुआ था। मैंने इस सीमा के आसपास पाने के लिए PCIe अडैप्टर का उपयोग किया: https://www.amazon.com/Lycom-DT-120-M-2-PCIe-to-PCIe-3-0-x4-Adapter-Support-M-2 -PCIe-2280-2260-2242 / डी पी / B00MYCQP38 /

आपका मदरबोर्ड कहता है कि यह पूर्ण 32Mbps दोनों तरह से है और शायद यह सच है, लेकिन मुझे लगा कि मैं एडॉप्टर का उल्लेख करूंगा क्योंकि यह मेरे लिए काम करता है (मुझे ऑन-बोर्ड M.2 स्लॉट में प्लग करने की गति दोगुनी हो गई)। मुझे लगता है कि यह $ 25 था और यदि आपने पहले से ही पर्याप्त समय बिताया है, तो यह एक कोशिश के लायक हो सकता है।

मैंने अपने अमेज़न समीक्षा में अपने अनुभव के बारे में लिखा: https://www.amazon.com/gp/customer-reviews/R21BXILGXW4D9C/ref=cm_cr_arp_d_rvw_ttl.ie=UTF8&ASIN=B01639694M

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.