ईमानदार रॉक, कागज, कैंची


58

कई लोग आरपीएस को मौका का खेल मानते हैं। यदि दोनों खिलाड़ी अप्रत्याशित रूप से खेलते हैं, तो सबसे अच्छी रणनीति अनियमित रूप से खेलना है। हालांकि, आइए, इसके बारे में थोड़ी भविष्यवाणी करें।

प्रत्येक बॉट के पास दूसरे बॉट को यह बताने का मौका होगा कि वह एक साथ क्या खेलने वाला है। फिर एक विराम है जिसमें प्रत्येक बॉट को पता चल जाएगा कि दूसरे खिलाड़ी ने क्या घोषणा की है। यदि यह उस हथियार को खेलता है, तो उसने घोषणा की कि वह एक अंक की जीत हार या ड्रॉ के लिए अपने अंकों के अलावा एक अंक प्राप्त करेगा।

एक जीत दो अंक, एक ड्रॉ, एक अंक और हानि 0 अंक के बराबर होती है।

     Honest Bot       Dishonest
Win     3                  2
Draw    2                  1
Loss    1                  0

ईमानदार होना आपका सबसे अच्छा हित है (लेकिन यह भी सुनिश्चित करने के लिए कि आपका प्रतिद्वंद्वी आपको विश्वास नहीं करता है)।

मैच एक राउंड रॉबिन प्रारूप में खेले जाएंगे, और उद्देश्य आपके द्वारा खेले जाने वाले मैचों में अपने कुल स्कोर को अधिकतम करना होगा।

I / O प्रारूप:

  • आपका बॉट पायथन 2.7 फ़ंक्शन होगा जो 4 तर्क लेता है, और एक अद्वितीय नाम होना चाहिए (जिसका उपयोग आपके सबमिशन का प्रतिनिधित्व करने के लिए किया जाएगा)।
  • पहले दो तर्क हमेशा क्रम में रहेंगे: प्रतिद्वंद्वी के पिछले चाल, आपके पिछले कदम। ये पहले से लेकर सबसे हाल के दौर के क्रम में एक सूची होगी, प्रत्येक सूचकांक में उस सूची के साथ सूची होगी जिसमें प्रतिद्वंद्वी दावा करेगा कि वे वास्तव में बनाए गए कदम के साथ हैं।
  • अगले दो तर्क आपके बॉट को यह निर्धारित करने की अनुमति देंगे कि क्या यह "ईमानदार" दौर या "वास्तविक" दौर है। यदि यह एक "ईमानदार" दौर है, तो वे दोनों कोई नहीं होंगे। यदि यह एक "वास्तविक" दौर है, तो वे क्रम में होंगे, आपके प्रतिद्वंद्वी ने जिस चाल की घोषणा की थी, उसके बाद आपके द्वारा घोषित किए गए कदम के बाद।
  • सभी तर्क या तर्क जो कि चालों का प्रतिनिधित्व करते हैं, क्रमशः "R", "P" और "S" का उपयोग रॉक, पेपर और कैंची का प्रतिनिधित्व करने के लिए करेंगे।
  • आपका फ़ंक्शन रॉक के लिए या तो "आर", कागज के लिए एक "पी" या कैंची के लिए "एस" वापस आना चाहिए। ऐसे बॉट्स जिनमें अन्य मानों को वापस करने की क्षमता है, उन्हें अयोग्य घोषित कर दिया जाएगा।
  • प्रत्येक बॉट को हर दूसरे बॉट के खिलाफ 200 बार और खुद 100 बार चलाया जाएगा। प्रतियोगिता के अंत में सबसे अधिक अंक के साथ बॉट होना लक्ष्य है।
  • टिप्पणियों में चर्चा के संबंध में, प्रस्तुतियाँ किसी भी फ़ाइल से पढ़ या लिख ​​नहीं सकती हैं, या किसी भी तरह से तोड़फोड़ या प्रतिद्वंद्वी के कोड को पढ़ सकती हैं।

उदाहरण:

ये चार उदाहरण बॉट हैं जिन्हें मैंने जल्दी से एक साथ रखा। वे अतिरिक्त बॉट के रूप में प्रतियोगिता में शामिल होंगे। यदि आप पिछले एक से हार जाते हैं, तो आपको कुछ काम करना होगा।

def honestpaper(I,dont,care,about_these):
    return "P"

def honestrock(I,dont,care,about_these):
    return "R"

def honestscissors(I,dont,care,about_these):
    return "S"

import random
def randombot(I,dont,care,about_these):
    return random.choice(["R","P","S"])

नियंत्रक:

और यहाँ नियंत्रक मैं उपयोग कर रहा हूँ। नई प्रस्तुतियाँ शुरुआत में आयात की जाएंगी और bot_map डिक्शनरी में जोड़ी जाएंगी।

from honestrock import honestrock
from honestpaper import honestpaper
from honestscissors import honestscissors
from randombot import randombot

bot_map = {
  0:honestrock, 1:honestpaper, 2:honestscissors, 3:randombot
}

player_num=len(bot_map)

def real(history1,history2,number,honest1,honest2):
    return bot_map[number](history1,history2,honest1,honest2)

def honest(history1,history2,number):
    return bot_map[number](history1,history2,None,None)

def play_match(num1,num2):
    history1=[]
    history2=[]
    score1=0
    score2=0
    for x in range(250):
        h1=honest(history2,history1,num1)
        h2=honest(history1,history2,num2)
        r1=real(history2,history1,num1,h2,h1)
        r2=real(history1,history2,num2,h1,h2)

        if h1==r1: score1+=1
        if h2==r2: score2+=1

        if r1==r2: score1+=1; score2+=1
        elif r1=="R":
            if r2=="P": score2+=2
            else: score1+=2
        elif r1=="P":
            if r2=="S": score2+=2
            else: score1+=2
        else:
            if r2=="R": score2+=2
            else: score1+=2

        history1.append([h1,r1])
        history2.append([h2,r2])
    return score1,score2

scores = []
for x in range(player_num):
    scores.append(0)

for _ in range(100):

    for x in range(player_num):
        for y in range(player_num):
            scorex,scorey=play_match(x,y)
            scores[x]+=scorex
            scores[y]+=scorey

for score in scores:
    print score

अंतिम स्कोर:

csbot                    3430397
thompson                 3410414
rlbot                    3340373
have_we_been_here_before 3270133
mason                    3227817
deepthought              3019363
adaptive_bot             2957506
THEbot                   2810535
dontlietome              2752984
irememberhowyoulie       2683508
learningbot4             2678388
betrayal                 2635901
averager                 2593368
honestrandom             2580764
twothirds                2568620
mirrorbot                2539016
tit4tat                  2537981
honestscissors           2486401
trusting_bot             2466662
rotate_scissors          2456069
rotate_paper             2455038
rotate_rock              2454999
honestpaper              2412600
honestrock               2361196
rockBot                  2283604
trustingRandom           2266456
user5957401bot           2250887
randombot                2065943
Dx                       1622238
liarliar                 1532558
everybodylies            1452785

1
क्या स्थिति है?
user1502040

जवाबों:


11

मकान बनाने वाला

अन्य बॉट्स के बारे में जानकारी लेने की कोशिश करता है जैसे कि वे कितने ईमानदार हैं और मेरी पहली चाल से वे कैसे प्रभावित होते हैं। मैं तब अन्य स्पष्ट बॉट्स खोजने की कोशिश करता हूं जो एक पैटर्न का पालन करते हैं और मुझे अधिक अंक देने में उनका शोषण करते हैं। अंत में, मेसन के पास एक गुप्त हथियार है: एक गुप्त समाज का ज्ञान जहां दोनों बॉट परस्पर एक पूर्ण ड्रा के लिए जाते हैं, प्रत्येक अंक प्राप्त करते हैं। दुर्भाग्य से रहस्य बल्कि है ... अच्छी तरह से गुप्त और हर बार मेसन करता है।

def mason(op_hist, my_hist, op_move, my_move):
    win_map = {"R": "P", "P": "S", "S": "R"}
    lose_map = {"R": "S", "P": "R", "S": "P"}
    if not len(op_hist):
        return "S"
    if op_hist[0] == ['S', 'S']:
        code = "S" + "".join("RPS"[ord(i) % 3] if isinstance(i, str) else "RPS"[i % 3] for i in __import__("sys")._getframe().f_code.co_code)[1::2]
        honest, guess = zip(*op_hist)
        if honest == guess == tuple(code[:len(op_hist)]):
            return code[len(op_hist)]
    op_honesty = sum(len(set(round))-1 for round in op_hist) / float(len(op_hist))
    if not my_move:
        moves = "".join(i[1] for i in op_hist)
        # Identify rotators
        if "PSRPSR" in moves:
            return moves[-2]
        # Identify consecutive moves
        if "RRRRR" in moves[:-10] or "SSSSS" in moves[:-10] or "PPPPP" in moves[:-10]:
            return win_map[moves[-1]]
        # Try just what wins against whatever they choose most
        return win_map[max("RPS", key=moves.count)]
    op_beats_my_honest = sum(win_map[me[0]] == op[1] for op, me in zip(op_hist, my_hist)) / float(len(op_hist))
    op_draws_my_honest = sum(me[0] == op[1] for op, me in zip(op_hist, my_hist)) / float(len(op_hist))
    op_loses_my_honest = sum(lose_map[me[0]] == op[1] for op, me in zip(op_hist, my_hist)) / float(len(op_hist))
    if op_honesty <= 0.4:
        return win_map[op_move]
    max_prob = max((op_loses_my_honest, op_draws_my_honest, op_beats_my_honest))
    if max_prob >= 0.6:
        if op_beats_my_honest == max_prob:
            return lose_map[my_move]
        if op_draws_my_honest == max_prob:
            return win_map[my_move]
        if op_loses_my_honest == max_prob:
            return my_move
        assert False
    return my_move

9

Rlbot: सुदृढीकरण सीखना

एक सुदृढीकरण सीखने के दृष्टिकोण का उपयोग करता है, जो इस गेम को एन-सशस्त्र डाकू समस्या के समान है। यह दो तरीकों से ऐसा करता है: यह जानने की कोशिश करता है कि कौन सा घोषणा प्रत्येक प्रतिद्वंद्वी के खिलाफ बेहतर है और उस एक (स्थिर बॉट्स के खिलाफ उपयोगी) से चिपक जाता है, और पिछली समान स्थितियों में विभिन्न चालों के परिणाम जानने की कोशिश करता है (सापेक्ष नाटकों के संबंध में समान है , जैसे रॉक बनाम पेपर पिछले पेपर बनाम कैंची के समान है)। प्रारंभिक धारणाएं आशावादी हैं, इसलिए यह खिलाड़ी यह मान लेगा कि ईमानदार होने से यह 3 अंक देगा और झूठ बोलना 2 देगा, और इसलिए हमेशा ईमानदार रहेगा जब तक अन्यथा साबित न हो जाए।

अद्यतन: पहले टूर्नामेंट के परिणामों ने इस बॉट के साथ एक समस्या को उजागर किया, जो अपने विरोधियों की घोषणाओं में पैटर्न का पता लगाने में असमर्थता थी (जो इसे रोटेटरों के खिलाफ उप-रूप से खेलते थे)। फिर मैंने ईमानदार दौरों के लिए कोड में एक पैटर्न-मिलान घटक जोड़ा है, जो प्रतिद्वंद्वी घोषणाओं के इतिहास में सबसे लंबे समय तक प्रत्यय देखने के लिए एक regex का उपयोग करता है जो उस इतिहास में कहीं पहले मौजूद है, और उसके बाद क्या चाल चली गई । हम मानते हैं कि प्रतिद्वंद्वी फिर से एक ही चाल खेलेगा, और सुदृढीकरण सीखने का उपयोग करने से पहले यह तय करना होगा कि सबसे अच्छा जवाब क्या होना चाहिए।

import re
def rlbot(hismoves,mymoves,hismove,mymove):
 def score(d,m1,m2):
  s=0
  if m1==m2:
   s=1
  elif (m1+m2) in "RPSR":
   s=2
  return s+(d==m2)

 alpha=0.2
 if mymove:
  history=[([d1,m1],[d2,m2]) for ((d1,m1),(d2,m2)) in zip(hismoves,mymoves) if score(None,hismove,mymove)==score(None,d1,d2)]
  bestscore=-1
  bestmove=""
  for move in "RPS":
   ev=2+(move==mymove)
   for ((d1,m1),(d2,m2)) in history:
    if score(None,move,mymove)==score(None,m2,d2):
     ev=(1-alpha)*ev+alpha*score(d2,m1,m2)
   if ev>bestscore:
    bestscore=ev
    bestmove=move
  return bestmove

 else:
  if len(hismoves)==0:
   return "R"
  bestscore=-1
  bestmove=""
  hisdeclarations="".join(d for [d,m] in hismoves)
  predicted_move=re.search(r'(.*)\n.*\1(.)',hisdeclarations+'\n'+hisdeclarations).group(2)
  history=[([d1,m1],[d2,m2]) for ((d1,m1),(d2,m2)) in zip(hismoves,mymoves) if d1==predicted_move]
  for move in "RPS":
   ev=3
   for (his,my) in history:
    (d1,m1)=his
    (d2,m2)=my
    if d2==move:
     ev=(1-alpha)*ev+alpha*score(d2,m1,m2)
   if ev>bestscore:
    bestscore=ev
    bestmove=move
  return bestmove

इसे ऑनलाइन आज़माएं!


6

मैंने वास्तव में अजगर का इस्तेमाल कभी नहीं किया है इसलिए मुझे यकीन है कि मैंने कहीं न कहीं गलती की है।

import random
def learningbot3(opponentlist,a,opponent,me):
 #tell the other bot a random thing
 if opponent==None:
  return random.choice(["R","P","S"])
 #check whether the other bot has mostly told the truth in the last 10 rounds
 truth=0
 for game in opponentlist[-10:]:
  truth-=1
  if game[0]==game[1]:
   truth+=2
 #assume the other bot will tell the truth
 if truth>=3:
  if me==opponent:
    return me
  elif opponent=="R":
   return "P"
  elif opponent=="P":
   return "S"
  elif opponent=="S":
   return "R"
 #assume the other bot is lying
 elif truth<=-3:
  return random.choice([me,opponent])
  #return opponent
 #pick whatever we said we would
 else:
  return me

यह अंतिम 10 राउंड की जांच करनी चाहिए कि प्रतिद्वंद्वी कितनी बार झूठ बोलता है, फिर उसी के आधार पर एक अलग प्रतिक्रिया को चुना।


6

यहाँ मेरे अनुकूल बॉट है। यह निर्धारित करने के लिए प्रतिद्वंद्वी की अंतिम 2 चालों का विश्लेषण करता है कि यह एक ईमानदार बॉट है या नहीं और तदनुसार खेलता है:

संपादित करें 1: यदि अन्य बॉट एक स्थिर बॉट है (यानी हमेशा एक ही हथियार निभाता है) तो यह बॉट इसे जीतने वाले हथियार को खेलकर कुचलता है और एक ही समय में ईमानदार होता है।

एडिट 2: रोटेटर बॉट्स के साथ काम करने के लिए बेहतर निरंतर बॉट डिटेक्टर।

import random
def adaptive_bot(other_past, my_past, other_next, my_next):
    winners = {"R": "P", "P": "S", "S": "R"}
    if my_next is None:
        return winners[other_past[-6:][0][1]] if other_past else random.choice(list(winners.keys()))
    else:
        is_other_honest = all([other_claim == other_move for other_claim, other_move in other_past[-2:]])
        return winners[other_next] if is_other_honest else my_next

5

csbot

def csbot(ophist,myhist,opdecl,mydecl):

  import random

  RPS = "RPS"

  def value(opd,myd,opmove,mymove):
    if opmove==mymove:
      val = 9
    elif opmove+mymove in RPS+RPS:
      val = 20
    else:
      val = -2
    return val+10*(myd==mymove)-(opd==opmove)

  def best(od,md):
    l = float(len(ophist))
    weights = dict([ (m, random.random()/8) for m in RPS ])
    for n in range(len(ophist)):
      if ophist[n][0]==od and myhist[n][0]==md:
        weights[ophist[n][1]] += 1+4*((n+1)/l)**2
    sw = sum([ weights[m] for m in RPS ])
    bestexpect = 0
    for m in RPS:
      expect = sum([ weights[om]/sw*value(od,md,om,m) for om in RPS ])
      if expect > bestexpect:
        bestexpect = expect
        bestmove = m
    return bestmove, bestexpect


  honest = all ([ decl==mv for decl, mv in ophist ])

  if honest:
    if mydecl<>None:
      return mydecl
    expnxt = set();
    for i in range(len(ophist)-1):
      if ophist[i][0]==ophist[-1][0]:
        expnxt.add(ophist[i+1][0])
    if len(expnxt)==1:
      return RPS[ (RPS.index(expnxt.pop())+1) % 3 ]

  if mydecl==None:
    l = float(len(ophist))
    weights = dict([ (m, random.random()) for m in RPS ])
    for n in range(len(ophist)):
      weights[ophist[n][0]] += 1+((n+1)/l)**2
    sw = sum([ weights[m] for m in RPS ])
    bestexpect = 0
    worstexpect = 99
    for m in RPS:
      expect = sum([ best(od,m)[1]/sw*weights[od] for od in RPS ])
      if expect > bestexpect:
        bestexpect = expect
        bestmove = m
      if expect < worstexpect:
        worstexpect = expect
    if bestexpect-worstexpect < 3:
      bestmove = random.choice(RPS)
    return bestmove

  return best(opdecl,mydecl)[0]

जब तक दूसरा खिलाड़ी है, ईमानदार रहें और सरल नियतात्मक बॉट का पता लगाएं। उस चाल को चलाएं जो अपेक्षित मूल्य को अधिकतम करता है, जहां हम ज्यादातर अपने बिंदुओं के लिए जाते हैं, लेकिन दूसरे खिलाड़ी को अंक नहीं देना भी पसंद करते हैं। लेकिन दस के एक कारक से खुद के अंक बेहतर हैं, इसलिए valueफ़ंक्शन में असामान्य संख्याएं हैं । विपक्षी चालों को इस स्थिति (घोषित चाल) से पहले कितनी बार हमने देखा है, उसके अनुसार उम्मीद की जाती है, लेकिन हाल ही में देखी गई चालों को पहले देखी गई चालों की तुलना में अधिक भारित किया जाता है। यादृच्छिक प्रारंभिक चाल (पहले कभी नहीं देखी गई स्थितियों) और कुछ अतिरिक्त फ़िज़नेस के लिए, वज़न में छोटे अतिरिक्त यादृच्छिक संख्याएं शामिल हैं।

अद्यतन: ईमानदार दौर में भी अपेक्षित परिणाम का उपयोग करें। ऐसा करने में सक्षम होने के लिए, प्रतिद्वंद्वी को सामान्य स्थिति में लाने के लिए अतिरिक्त बिंदु को सामान्य करना और लेना - यह वास्तविक दौर में हमारे विचलन को प्रभावित नहीं कर सकता है, लेकिन अब इसकी आवश्यकता है। मैंने शुरुआत से ऐसा करने पर विचार किया, लेकिन गलत तरीके से सोचा कि यह सार्थक नहीं होगा। मैंने देखा कि trusting_botकम अंक देना संभव होगा (लेकिन बॉट वैसे भी एक मजबूत प्रतिद्वंद्वी नहीं है), लेकिन चूक गए कि rockbotईमानदार दौर में अच्छे खेल से अतिरिक्त अंक प्राप्त किए जा सकते हैं, भले ही इस दौर में इसका खेल यादृच्छिक हो।


यह हमेशा एक परिणाम नहीं लगता है।
user1502040

मुझे लगता है कि आपका if mydecl == None:गलत है।
user1502040

@ user1502040 आपको ऐसा क्यों लगता है? मैंने कभी कोई समस्या नहीं देखी।
क्रिश्चियन सेवर्स


4

विश्वासघात

def betrayal(yours, mine, you ,me):
    import random
    if you is None:
        pick = random.choice(['R','P','S'])
    else:
        you = you[0]
        me = me[0]
        if len(yours) < 50: #Build myself a reputation of honesty
            pick = me
        else:
            if len(yours) >= 50 and len(yours) < 100:
                honesty = sum([1 if y[0]==y[1] else 0 for y in yours])/float(len(yours))
                if honesty <= 0.5: #If dishonest try to outwit
                    pick = 'S' if me=='R' else 'R' if me == 'P' else 'P'
                else: #Else just plain cheat
                    pick = 'P' if you=='R' else 'R' if you=='S' else 'S'
            elif len(yours) >= 100: #When dishonest moves outweight honest moves, change tactics...
                honesty = sum([1 if y[0]==y[1] else 0 for y in yours[50:]])/float(len(yours[50:]))
                if honesty <= 0.5: #... and just play according to most likely pick
                    what_did_you_do = [k[1] for k in yours if k[1]!=k[0]]
                    index = [i for i,k in enumerate(yours) if k[1]!=k[0]]
                    what_i_said_i_ll_do = [k[0] for i,k in enumerate(mine) if i in index]
                    matches = zip(what_i_said_i_ll_do, what_did_you_do)
                    what_you_might_answer = [k[1] for k in matches if k[0]==me]
                    table = [len([k for k in what_you_might_answer if k=='R']),len([k for k in what_you_might_answer if k=='P']),len([k for k in what_you_might_answer if k=='S'])]
                    maybe_your_pick = ['R','P','S'][table.index(max(table))]
                    pick = 'P' if maybe_your_pick=='R' else 'R' if maybe_your_pick=='S' else 'S'
                else:
                    pick = 'P' if you=='R' else 'R' if you=='S' else 'S'
    return pick

विचार यह है कि पहले 50 चालों के लिए मैं ईमानदारी से खेलता हूं, और फिर एक बार मैंने प्रतिद्वंद्वी को यह सोचकर फुसलाया कि मैं ईमानदार हूं, बेईमानी से खेलता हूं, यह खेलने की कोशिश करता हूं कि प्रतिद्वंद्वी क्या खेलेगा (इस आधार पर कि वह ईमानदार था या बेईमान भूतकाल में)। जब मैं उस बिंदु पर पहुंच जाता हूं जिस पर मैं बेईमानी से ईमानदारी से खेलता हूं, तो मैं रणनीति बदल देता हूं और पिछले ज्ञात कॉन्फ़िगरेशन के आधार पर प्रतिद्वंद्वी की सबसे अधिक संभावित चाल को चुनता हूं।


3
import random
def honestrandom(a, b, c, move):
    if move == None:
        return random.choice(["R","P","S"])
    return move

3

बॉट नाम: मुझे याद है कि आप कैसे झूठ बोलते हैं

import random

#Bot Name: I Remember How You Lie
def irememberhowyoulie(opponentlist, mylist, opponentmove, mymove):
    random.seed()

    wintable = {
                "R": {"R": 1, "P": 0, "S": 2},
                "P": {"R": 2, "P": 1, "S": 0},
                "S": {"R": 0, "P": 2, "S": 1}
               }

    winprob = {
               "R": {"R": 0.0, "P": 0.0, "S": 0.0},
               "P": {"R": 0.0, "P": 0.0, "S": 0.0},
               "S": {"R": 0.0, "P": 0.0, "S": 0.0}
              }

    totalprob = {"R": 0, "P": 0, "S": 0}

    # Calculate the probability that the opponent will lie base on the probability that it lied in the last 15 ~ 25 rounds
    # And calculate the probability that what the bot will show next
    picklength = min(random.randint(15, 25), len(opponentlist))
    lying, tempsum = 0, 0.0
    pickedup = {"R": 0, "P": 0, "S": 0}
    if picklength == 0:
        lying = 0.5
    else:
        for eachround in opponentlist[-picklength:]:
            pickedup[eachround[1]] += 1
            if eachround[0] != eachround[1]:
                lying += 1
        lying = lying * 1.0 / picklength
    for s in pickedup:
        pickedup[s] = 1.0 / (1 + pickedup[s])
        tempsum += pickedup[s]

    #Honest Round
    if opponentmove is None and mymove is None:
        a = random.random() * tempsum
        if a < pickedup["R"]:
            return "R"
        elif a < pickedup["R"] + pickedup["P"]:
            return "P"
        else:
            return "S"

    #Real Round
    else:                
        for me in winprob:
            ishonest = 0
            if me == mymove:
                ishonest = 1
            for op in winprob[me]:
                if op == opponentmove:
                    winprob[me][op] = (wintable[me][op] + ishonest) * (1 - lying)
                else:
                    winprob[me][op] = (wintable[me][op] + ishonest) * lying * pickedup[op] / (tempsum - pickedup[opponentmove])
                totalprob[me] += winprob[me][op]

        optimalmove, optimalvalue = "R", -9999999.0
        for me in totalprob:
            if totalprob[me] > optimalvalue:
                optimalmove, optimalvalue = me, totalprob[me]
        return optimalmove

कई 100-राउंड रनों के लिए परीक्षण किया गया, और पता चला कि विजेता का औसत लगभग 220 है। बल्कि मुझे लगता है कि ईमानदार;)

मुझे पहली बार कोथ चुनौतियों में भाग लेने के लिए, इसलिए मुझे लगता है कि अभी भी सुधार की गुंजाइश है


3

जैसे को तैसा

क्लासिक एक्सेलरोडियन प्रतियोगी: आशान्वित, फिर भी क्षुद्र; सरल, अभी तक मजबूत। यह कैदी की दुविधा नहीं है और मैंने प्रतिद्वंद्वी की चाल की भविष्यवाणी करने का कोई प्रयास नहीं किया, इसलिए मुझे बहुत संदेह है कि यह वास्तव में प्रतिस्पर्धी होगा। लेकिन "सहयोग करना" अभी भी प्रतियोगियों के लिए सबसे अधिक समग्र अंक का उत्पादन करता है, इसलिए मुझे लगता है कि यह कम से कम मिडिलिंग तो करेगा।

import random
def tit4tat(opphist, myhist, oppfut, myfut):
    if (not myfut): return random.choice(['R','P','S'])
    if (not opphist) or opphist[-1][0]==opphist[-1][1]: return myfut
    return random.choice(['R','P','S'])

3

दो तिहाई

सैंडबॉक्स में और इस टिप्पणी में वर्णित पीटर टेलर की रणनीति का उपयोग करता है ।

यह नैश संतुलन का उपयोग करता है ।

import random

def two_thirds(h_opp, h_me, opp, me):

    def result(opp, me):
        if opp==me: return 0
        if opp=="R" and me=="S" or opp=="S" and me=="P" or opp=="P" and me=="R": return -1
        return 1

    moves = {"R", "P", "S"}
    honest = (opp == None)
    if honest:
        return random.choice(list(moves))
    else:
        res = result(opp, me)
        if res==-1:
            counter = list(moves - {opp, me})[0]
            return random.choice([me,counter,counter])
        if res==1:
            return random.choice([me,me,opp])
        return me

यह मेरे लिए त्रुटियाँ हैं। लाइन 13 पर, random.choice (चालें) लौटें। मुझे लगता है कि यह शायद इसलिए है क्योंकि आप एक शब्दकोश में .choice का उपयोग कर रहे हैं। जब तक यह तय नहीं हो जाता, मुझे डर है कि यह जमा अमान्य है।
ग्रीफॉन -

@Gryphon यह एक शब्दकोश नहीं है, यह एक सेट है।
LyricLy

आह क्षमा करें। मैंने सिर्फ स्क्वीजी-ब्रैकेट्स देखे और "शब्दकोश" सोचा। मेरी गलती। किसी भी विचार क्यों random.choice उस लाइन पर फिर से है?
ग्रिएफॉन -

@Gryphon ऐसा लगता है कि random.choiceएक यादृच्छिक सूचकांक संख्या लेने पर निर्भर करता है और फिर उस सूचकांक में सूची में ऑब्जेक्ट को वापस करता है। चूंकि सेट में ऑर्डर नहीं है, इसलिए वे अनुक्रमण का समर्थन नहीं करते हैं और इस तरह से काम नहीं करते हैं random.choice। इसके लिए एक सरल समाधान यह होगा कि कॉल करने से पहले सेट को एक सूची में डाल दिया जाए random.choice
LyricLy

आह। मेरे पास इस कंप्यूटर पर अजगर नहीं है, इसलिए मैं अभी इसे ठीक नहीं कर सकता, लेकिन घर पहुंचने पर मैं इसे अपने कोड में ठीक कर लूंगा। यदि @ mbomb007 इसे यहां ठीक कर देगा, तो यह बहुत अच्छा होगा।
ग्रीफॉन -

3

गहरा विचार

def check_not_loose_bot(opHist, myHist):
    not_loose_points = 0
    for i in range(0, len(opHist)):
        if opHist[i][1] == opHist[i][0] or myHist[i][0] == win_map[opHist[i][0]] and opHist[i][1] == win_map[myHist[i][0]]:
            not_loose_points += 1
    not_loose_percent = float(not_loose_points) / len(opHist)
    if not_loose_percent > 0.9:
    #    print("is not willing to loose")
        return True
    return False

def check_trick_bot(opHist, myHist):
    trick_points = 0
    for i in range(0, len(opHist)):
        if opHist[i][1] == win_map[myHist[i][0]]:
            trick_points += 1
    trick_percent = float(trick_points) / len(opHist)
    if trick_percent > 0.9:
  #      print("is tricking me")
        return True
    return False

def check_honest_bot(opHist):
  #  print("check honest")
    honest_points = 0
    for i in range(0, len(opHist)):
        if opHist[i][0] == opHist[i][1] :
            honest_points += 1
    honest_percent = float(honest_points) / len(opHist)
    if honest_percent > 0.9:
    #    print("is honest")
        return True
    return False

def check_self_match(opHist, myHist):
    for i in range(0, len(myHist)):
        if opHist[i][0] != myHist[i][0]:
            # im not playing against myself, because the other one was claiming a different value than i did
#            print("differ: "+str(opHist)+", "+str(myHist))
            return False
        if opHist[i][1] != opHist[i][0]:
#            print("lie")
            # im not playing against myself, because the other bot wasn't honest (and i'm always honest as long as i think i play against myself)
            return False
    return True

def check_equal(move1, move2, fullCheck): # WARNING: FOR COMPABILITY THIS IS RETURNING NEQ INSTEAD OF EQ
    if fullCheck:
        return move1 != move2
    else:
        return move1[0] != move2[0] #only check claims

def is_pattern(opHist, pattern_start, prob_pattern_start, pattern_length, full_check):
    for i in range(0, pattern_length-1):
        if check_equal(opHist[pattern_start + i] , opHist[prob_pattern_start + i], full_check):
            return False
    return True

win_map = {"R": "P", "P": "S", "S": "R"}
def deterministic_best_guess(opHist, full_check = True):
    size = 0
    random_result = random.choice(["R", "P", "S"])
    for pattern_length in range(2, (len(opHist)+1)/2): #a pattern has to occur at least twice
        for pattern_start in range(0, len(opHist) - 2 * pattern_length):
            if not is_pattern(opHist, pattern_start, len(opHist) - pattern_length + 1, pattern_length, full_check):
                 continue
            is_repeated = False
            is_fooled = False
            for repeated_pattern_start in range(pattern_start + pattern_length, len(opHist) - pattern_length):
                if not is_pattern(opHist, pattern_start, repeated_pattern_start, pattern_length, full_check):
                     continue
                is_repeated = True
                if check_equal(opHist[pattern_start + pattern_length - 1], opHist[repeated_pattern_start + pattern_length - 1], full_check):
                    is_fooled = True
                    break
    #            print("pattern found: " + str(opHist[pattern_start : pattern_start + pattern_length]) +" at "+str(pattern_start)+" and "+str(repeated_pattern_start))
   #             print("check: "+str(opHist))
            if is_fooled or not is_repeated:
                break
            #we have found a deterministic best guess
  #          print("most likely next step: "+ str(opHist[pattern_start + pattern_length - 1]))
            if full_check:
                return win_map[opHist[pattern_start + pattern_length - 1][1]], True
            return win_map[opHist[pattern_start + pattern_length - 1][0]], True # if we don't have a full check, the pattern only applies to claims. So pretend to win against the claimed result.

    #fallback
 #   print("fallback")
    return random_result, False

def DeepThought(opHist, myHist, opMove, myMove):
    if opMove == None:
    #claiming phase
        if len(myHist) == 0:
        #seed random to be able to be deterministic when chosing randomly
            #The seed is secret (kind of)
            random.seed(133427)
        else:
            #seed random according to my previous claims
            seed = 133427
            for i in range(0, len(myHist)):
                if myHist[i][0] == "R":
                    seed = seed*3+1
                elif myHist[i][0] == "S":
                    seed = seed*7+1
                elif myHist[i][0] == "P":
                    seed = seed*11+1
                while seed%2 == 0:
                    seed /= 2
            random.seed(seed)
        if check_self_match(opHist, myHist):
            #claim a random value, will happen in the first round or in a self-match
            result = random.choice(["R", "P", "S"])
            return result
      #  print("differ detected")
        if check_trick_bot(opHist, myHist) and len(myHist) > 10:
            # i play against a trick bot. I can reduce its points by trieing to guess its claim, and force him to lie
            result, sure = deterministic_best_guess(opHist, False)
        else:
            result, sure = deterministic_best_guess(opHist)
        random.seed(0)
        return result
    if check_self_match(opHist, myHist):
        #i play against myself, i can only hope for a honest draw, so do that
        return myMove
#    print("no self-math")
    #dbg needs a valid seed, so provide it
    random.seed(133427)
    result, sure = deterministic_best_guess(opHist)
    if sure:
        #i'm sure i play against a deterministic bot. I'll be honestly winning. YEY.
        return myMove
    if check_honest_bot(opHist) and len(opHist) > 10:
        #i play against an honest bot. I'll accept a draw, but i will not accept a loss
        if win_map[myMove] == opMove:
            return win_map[opMove]
        return myMove
    if check_trick_bot(opHist, myHist) and len(opHist) > 10:
        #i play against a tricking bot. He'll make me either loose honestly (1 Pnt) or i have to be dishonest (2 Pnt). So let's lie.
        return win_map[win_map[myMove]]
    if check_not_loose_bot(opHist, myHist) and len(opHist) > 10:
        #i play against a bot thats not willing to loose. If it looks like i won, i can loose honestly (1Pnt, 2Pnt for him),
        #or i have to be dishonest (2 Pnt, 0 Pnt for him). So let's lie in that case.
        #If it looks like its a draw, i'll be honest (conservative way), and get my 2 : 2 Pnt.
        #If it lokks like i'll loose, I'll not accept it. I'll lie to win for 2 : 1 Pnt.
        if myMove == opMove:
            return myMove
        if myMove == win_map[opMove]:
            # He'll lie. So lie together and keep smiling.
            return opMove
        # I'll loose. NO!!!! Not gonna happen
        return win_map[opMove]
    return myMove

इस पर बस कुछ नोट्स:

  • दीप विचार करना पसंद करता है। बहुत। मुझे इसके बारे में खेद है, लेकिन मुझे नहीं पता कि इसे कैसे ठीक किया जाए। मैं अजगर को दोषी ठहराता हूं।
  • ईमानदार होने की कोशिश करता है। बीइंग ईमानदार आपको एक एडिशनल पॉइंट प्रदान करता है, जो कि मानदंड आरपीएस के लिए अपेक्षित मूल्य के समान है
  • लेकिन: डीप थॉट औसत गेम में 2 पॉइंट प्रति गेम से भी अधिक हो जाता है। वह कुछ सामान्य व्यवहारों को खोजने के लिए कुछ खोज का उपयोग करता है (जैसे चालबाज़ी, ईमानदार होना, आदि), और उसी के अनुसार अपनाता है।
  • डीप थॉट विशुद्ध रूप से नियतात्मक है, इसलिए यह खुद के खिलाफ आकर्षित होगा, क्योंकि यह हमेशा दोनों सिरों पर एक ही निर्णय करेगा।
  • यह सुनिश्चित करने के लिए कि खुद के खिलाफ झूठ नहीं बोलना है, इसकी एक विशेष पहचान है, यहां कुछ अन्य बॉट्स की तरह भी। यह एक बहुत ही आक्रामक है, यहां तक ​​कि एक दौर के बाद (और पहले दौर में भी सच है)। असल में, जब तक प्रतिद्वंद्वी चालें बिल्कुल मेरी हैं, मैं इसका दर्पण मैच मानूंगा।
  • दिलचस्प हिस्सा (और जिस हिस्से में दर्जनों झूठी सकारात्मकताएं हैं) एक नियतात्मक बॉट की जांच है, जो केवल अपने पूर्ववर्ती परिणाम पर निर्भर है। उस आकार n के किसी भी पैटर्न की खोज की जाँच करें, जिसे दो बार दोहराया जाता है, और यह अंतिम n-1 चालों का वर्णन कर सकता है, जो प्रतिद्वंद्वी के दावे और अग्रिम कदम की भविष्यवाणी करता है। इस हिस्से में कुछ समय लग रहा है, दुख की बात है।

मैं दोनों कोथ और अजगर के लिए नया हूं, इसलिए मुझे बताएं कि क्या मैंने इस बॉट में कुछ भी गड़बड़ किया है। मुझे नहीं लगता कि यह प्रबलित शिक्षा को हरा सकता है (क्योंकि मुझे लगता है कि यह मेरी चाल बहुत जल्दी सीख लेगा), लेकिन चलो इसे आज़माएं।

मुझे यह चुनौती पसंद है, और अगर मुझे कुछ समय मिलता है, तो मैं एक कार्बनिक कंप्यूटिंग एप्रोच जोड़ना चाहता हूं (इसके अलावा उच्च आयामों पर बहुत कम दबाव हो सकता है)। क्या कई सुझावों को जोड़ने की अनुमति है? या क्या यह आपके मुख्य बॉट को उकसाने से रोकने के लिए मना किया गया है जो केवल अपने प्राथमिक को खोने के लिए कुछ लक्ष्य रखता है?

संपादित करें: निश्चित कोड-टाइपो जिसने मुझे गैर-देशी अंग्रेजी वक्ता के रूप में कैरीकेचर किया


यह कई प्रविष्टियों को पोस्ट करने के लिए मना नहीं है, लेकिन यह एक प्रविष्टि पोस्ट करने के लिए मना किया जाता है जो एक अलग बॉट को सहारा देता है (यहां तक ​​कि एक जो आपका अपना नहीं है)। किसी अन्य बॉट से हारना ठीक है, जब तक यह डिज़ाइन द्वारा नहीं है।
ग्रिफॉन - मोनिका

इसे चलाते समय मुझे एक त्रुटि मिली, क्योंकि आपके डीपथॉट फ़ंक्शन की 32 वीं पंक्ति में, return resultअतिरिक्त इंडेंट की आवश्यकता होती है। मेरा मानना ​​है कि यह विशाल के अंदर होना चाहिए यदि कथन इसके तुरंत बाद है, क्योंकि चर returnकेवल उस कथन में घोषित किया गया है। मैंने अपने कोड में यह संशोधन किया है, और यह अब बिना किसी त्रुटि के चलता है। यदि आप उस परिवर्तन को यहाँ करने का मन नहीं करेंगे, तो यह बहुत अच्छा होगा।
ग्रिफन - मोनिका

3
आप वैश्विक यादृच्छिक जनरेटर की स्थिति के साथ खिलवाड़ करते दिखते हैं, जो शायद ठीक नहीं है। मैंने एक समान काम करने पर विचार किया, और इस समाधान को पाया: एक नई यादृच्छिक वस्तु बनाएं R=random.Random(seed)और इसे इस तरह उपयोग करें R.choice(...):।
क्रिश्चियन

@ ग्रिफन तय। संभवतः कुछ त्रुटियां जो मेरी स्थानीय लिपि से से में परिवर्तित होने पर हुईं, जहां हर एक को एक अतिरिक्त समय देना पड़ता है
एलेक्स

1
@alexberne आप अपने द्वारा चिपकाए गए कोड का चयन कर सकते हैं और {}प्रत्येक पंक्ति को स्वचालित रूप से इंडेंट करने के लिए टूलबार पर बटन क्लिक करें।
सेल्कुक

2
import random
def user5957401bot(a,b,c,d):
    if d == None: 
       return random.choice(["R","P","S"])
    else:
       return random.choice(["R","P","S",d])

2

have_we_been_here_before

बस पूछता है "हम पहले भी यहां रहे हैं", और उस कदम को चुनता है जिसने इस तरह के किसी भी पिछले गेम में सबसे अच्छा औसत परिणाम दिया होगा।

संपादित करें: ईमानदारी क्लब मैंने कोड का एक छोटा सा ब्लॉक जोड़ा है क्योंकि एक अन्य बॉट (मेसन) ने अपने साथ एक गुप्त क्लब बनाकर बहुत अच्छा किया है। हालांकि, ध्यान दें कि ईमानदार विरोधियों के खिलाफ ईमानदारी से खेलने पर औसतन भुगतान उसी तरह होता है जब वे खुद के खिलाफ खेलते हैं, और शायद व्यापक पारस्परिक लाभ भी होना चाहिए?

Edit2: मेरे आगे के दो बॉट लिखने के समय, दोनों रोटेटर्स का शोषण करते हैं, इसलिए मैं उस बैंडवागन पर कूदने के लिए कोड का एक और ब्लॉक जोड़ने जा रहा हूं। मुझे लगता है कि मेरे कोड को काफी पुराना स्कूल प्रतीत होना चाहिए - किसी भी प्रोग्रामिंग भाषा में पाए जाने वाले परिचित निर्माणों से चिपके रहना क्योंकि मैं वास्तव में पायथन को नहीं जानता हूं।

import random

def have_we_been_here_before(opponentList, myList, opponent, me):

    def win(x):
        if x=="R": return "P"
        elif x=="P": return "S"
        elif x=="S": return "R"

    def calc_score(r1, r2):
        if r1==r2: return 1
        elif r1==win(r2): return 2
        else: return 0

    def have_we(opponentList, myList, opponent, me, me2):
        score, count = 0, 0
        for n in range(len(opponentList)):
            if (opponent == opponentList[n][0] and me == myList[n][0]):
                score += calc_score(me2, opponentList[n][1])
                count += 1
        if count == 0: return 0
        else: return float(score) / float(count)

    if opponent == None:

        # exploit rotators
        if len(opponentList) >= 3:
            rotator = True

            for n in range(3, len(opponentList)):
                if opponentList[n][1] != opponentList[n % 3][1]:
                    rotator = False
                    break

            if rotator: return win(opponentList[len(opponentList) % 3][1])

        if len(opponentList) == 0:
            return random.choice(["R", "P", "S"])
        else:
            # crude attempt to exploit the house bots
            prev = random.choice(opponentList)[1]
            return win(prev)

    # Play honestly if opponent has played honestly so far
    honest = True
    for oppMove in opponentList:
        if (oppMove[0] != oppMove[1]):
            honest = False
            break

    if honest: return me
    # Done playing honestly

    # Have we been here before?
    rock = have_we(opponentList, myList, opponent, me, "R")
    paper = have_we(opponentList, myList, opponent, me, "P")
    sissors = have_we(opponentList, myList, opponent, me, "S")

    if rock > paper and rock > sissors: return "R"
    elif paper > rock and paper > sissors: return "P"
    elif sissors > paper and sissors > rock: return "S"
    else: return win(opponent)

2

थियोबॉट: द ईमानदार एक्सप्लॉयटर

import random 
def thebot(ho,hm,om,mm):
    hands = {"R": "P", "P": "S", "S": "R"}
    if om == None:
        if (len(set([i[0] for i in ho])) < 3) and (len(ho) > 2):
            return hands[random.choice(list(set([i[0] for i in ho])))]
        else:
            return random.choice(["R","P","S"])
    else:
        if sum(1 for i in ho if i[0]==i[1]) > (len(ho)/3):
            if om == mm:
                return om
            else:
                return hands[om]
        else:
            return mm

मुझे बस एहसास हुआ कि मैंने मिसकॉल करके माफ़ कर दिया है, क्षमा करें। जब आप संपादित करेंगे तो पूर्ववत कर देंगे। (इसे othewise बदल नहीं सकते हैं।)
क्रिश्चियन


@ChristianSievers धन्यवाद!
सिनेस्की

2

थॉम्पसन

import math
import random

moves = list(range(3))
names = "RPS"
from_name = dict(zip(names, moves))
to_name = dict(zip(moves, names))

#Payoff matrices given each relationship between honest moves.
A = [
    [[2, 1, 3], [2, 1, 0], [0, 2, 1]],
    [[1, 3, 2], [1, 0, 2], [2, 1, 0]],
    [[3, 2, 1], [0, 2, 1], [1, 0, 2]]
]

#Add a 1.2% penalty for the opponent's score (idea shamelessly stolen from csbot).
for d_h in range(3):
    for i in range(3):
        for j in range(3):
            A[d_h][i][j] -= 0.012 * A[[0, 2, 1][d_h]][j][i]

third = 1. / 3
two_thirds = 2 * third

nash_prior = [
    [[1, 0, 0], [two_thirds, 0, third], [third, 0, two_thirds]], 
    [[third, 0, two_thirds], [1, 0, 0], [two_thirds, 0, third]], 
    [[two_thirds, 0, third], [third, 0, two_thirds], [1, 0, 0]]
]

def mult_m_v(M, v):
    w = [0 for _ in v]
    for i, M_i in enumerate(M):
        for M_ij, v_j in zip(M_i, v):
            w[i] += M_ij * v_j
    return w

def mean_belief(counts):
    c = 1. / sum(counts)
    return [n * c for n in counts]

def sample_belief(counts):
    return mean_belief([random.gammavariate(n, 1) for n in counts])

def thompson(h_opp, h_me, opp, me):

    #Prior rationality of opponent.
    a = 0.95

    #Confidence in priors.
    n0_h = 0.5
    n0_m = 0.5

    def v(x):
        return [x for _ in range(3)]

    h_p = [v(n0_h * third) for _ in range(3)]

    m_p0 = [v(None) for _ in range(3)]
    m_p1 = [v(None) for _ in range(3)]

    #Expected prior is a mixture between nash equilibrium and uniform distribution.
    for h_i in range(3):
        for h_j in range(3):
            m_p0[h_i][h_j] = [n0_m * (a * nash + (1 - a) * third) for nash in nash_prior[h_i][h_j]] 

    for d_j_prev in range(3):
        for d_ij in range(3):
            m_p1[d_j_prev][d_ij] = list(m_p0[0][d_ij])

    #Track whether it's better to model the real moves based on the exact honest moves or
    #just the relationship between honest moves together with the opponent's defection strategy in the previous round.
    log_mp0 = 0
    log_mp1 = 0

    #Identify myself and always cooperate.
    is_me = True

    for (t, ((h_i, m_i), (h_j, m_j))) in enumerate(zip(h_me, h_opp)):

        h_i, m_i, h_j, m_j = from_name[h_i], from_name[m_i], from_name[h_j], from_name[m_j]

        d_j = (m_j - h_j) % 3
        d_ij = (h_j - h_i) % 3

        if t:
            h_j_prev = from_name[h_opp[t - 1][0]]
            m_j_prev = from_name[h_opp[t - 1][1]]
            h_p[h_j_prev][h_j] += 1

            d_j_prev = (m_j_prev - h_j_prev) % 3

            log_mp0 += math.log(m_p0[h_i][h_j][d_j] / sum(m_p0[h_i][h_j]))
            log_mp1 += math.log(m_p1[d_j_prev][d_ij][d_j] / sum(m_p1[d_j_prev][d_ij]))

            m_p1[d_j_prev][d_ij][d_j] += 1

        m_p0[h_i][h_j][d_j] += 1

        if is_me and ((h_i != h_j) or (h_j != m_j)):
            is_me = False

    if is_me:
        random.seed(len(h_me) + 1337)
        me_next = random.randrange(3)

    log_ps = [log_mp0, log_mp1]
    log_p_max = max(log_ps)
    ps = [math.exp(log_p - log_p_max) for log_p in log_ps]
    p0 = ps[0] / sum(ps)

    #We have to blend between the predictions of our 2 models for the real rounds.  

    def sample_expectation(h_i, h_j, d_j_prev=None):
        d_ij = (h_j - h_i) % 3
        if d_j_prev is None or random.random() < p0:
            p = m_p0[h_i][h_j]
        else:
            p = m_p1[d_j_prev][d_ij]
        return mult_m_v(A[d_ij], sample_belief(p))

    def take_expectation(h_i, h_j, d_j_prev=None):
        d_ij = (h_j - h_i) % 3
        e0 = mult_m_v(A[d_ij], mean_belief(m_p0[h_i][h_j]))
        if d_j_prev is None:
            return e0
        e1 = mult_m_v(A[d_ij], mean_belief(m_p1[d_j_prev][d_ij]))
        return [p0 * e0i + (1 - p0) * e1i for e0i, e1i in zip(e0, e1)]

    #We use thompson sampling, selecting the optimal deterministic strategy
    #with respect to a random opponent sampled from the posterior.

    #Actually, we use optimistic thompson sampling which clips samples to have >= than the mean expected value.

    if opp == None:
        #For the honest round we perform a lookahead to the real round to choose our strategy.
        if h_opp:
            if is_me:
                return to_name[me_next]
            h_j_prev = from_name[h_opp[-1][0]]
            m_j_prev = from_name[h_opp[-1][1]]
            d_j_prev = (m_j_prev - h_j_prev) % 3
            h_p_s = sample_belief(h_p[h_j_prev])
            h_p_u = mean_belief(h_p[h_j_prev])
            s_i = [0] * 3
            s_i_u = [0] * 3
            for h_i in range(3):
                for h_j in range(3):
                    s_i[h_i] += h_p_s[h_j] * max(sample_expectation(h_i, h_j, d_j_prev))
                    s_i_u[h_i] += h_p_u[h_j] * max(take_expectation(h_i, h_j, d_j_prev))
                s_i[h_i] = max(s_i[h_i], s_i_u[h_i])
            return to_name[s_i.index(max(s_i))]
        else:
            return to_name[me_next]
    else:
        if h_opp:
            if is_me:
                return me
            h_j_prev = from_name[h_opp[-1][0]]
            m_j_prev = from_name[h_opp[-1][1]]
            d_j_prev = (m_j_prev - h_j_prev) % 3
        else:
            if opp == me:
                return me
            d_j_prev = None
        h_i, h_j = from_name[me], from_name[opp]
        s_i = [max(s0, s1) for s0, s1 in zip(sample_expectation(h_i, h_j, d_j_prev), take_expectation(h_i, h_j, d_j_prev))]
        return to_name[(h_i + s_i.index(max(s_i))) % 3]

दिलचस्प प्रविष्टि। मैं इसे जल्द ही चलाऊंगा, आज दोपहर परिणाम पोस्ट करने में सक्षम होना चाहिए।
ग्रिएफॉन -

ठीक है, मैंने मापदंडों को थोड़ा फिर से बदल दिया।
user1502040

समझ गया। क्षमा करें, अपडेट होने में इतना समय लग रहा है, यह बस है, हर बार जब यह समाप्त हो रहा है, तो कोई व्यक्ति अपने बॉट को अपडेट करता है, या मुझे एक नया मिलता है, और मुझे इसे फिर से चलाना होगा।
ग्रिफ़ॉन - मोनिका

@Gryphon आप सभी जोड़ी-अप के परिणामों की एक तालिका रख सकते हैं, इसलिए जब कोई बॉट अपडेट किया जाता है तो आपको केवल 200 * (num_bots - 1) + 100 नए मैच चलाने होंगे।
user1502040

2

mirrorbot

import random

def mirrorbot(op_hist, my_hist, op_move, my_move):
    if my_move == None :
        return random.choice(["R","P","S"])
    else :
        for x in range(len(op_hist)):
            if ((op_hist[len(op_hist) -x-1][0] == my_move) and (my_hist[len(op_hist) -x-1][0] == op_move)):
                return op_hist[len(op_hist) -x-1][1]
        return my_move

मैं एक साधारण बॉट की कोशिश करूंगा जो इन परिस्थितियों में अपने प्रतिद्वंद्वी के अंतिम नाटक को फिर से करेगा


PPCG में आपका स्वागत है!
मार्टिन एंडर

1
def rotate_rock(h1, h2, is_, honest):
 return ("R", "P", "S")[len(h1) % 3]

def rotate_paper(h1, h2, is_, honest):
 return ("P", "S", "R")[len(h1) % 3]

def rotate_scissors(h1, h2, is_, honest):
 return ("S", "R", "P")[len(h1) % 3]

यहाँ विचार यह है कि अन्य ख़राब बॉट्स के खिलाफ अन्य चरणों के दौरान यादृच्छिक रूप से प्रतिस्पर्धी रहते हुए स्वयं को खेलते हुए स्कोर को अधिकतम किया जाए।


1
शब्द isएक कीवर्ड है, इस प्रकार यह अमान्य है।
आउटगोल्फर

@EriktheOutgolfer धन्यवाद :)
स्टीफन

1

dx

मैंने केवल यह बॉट लिखा है इसलिए मैं अपने बॉट नाम xD में एक स्माइली रख सकता हूं।

def Dx(ophist, myhist, opmove, mymove):
    from random import choice
    import math
    def honest(hist):
        return [int(x[0]==x[1]) for x in hist]

    def avg(arr):
        if len(arr)==0:
            return 0
        return sum(arr)/float(len(arr))

    def clamp(i, lo, hi):
        return min(hi, max(lo, i))

    def deltas(arr):
        return [a-b for a,b in zip(arr[1:],arr[:-1])]

    def delta_based_prediction(arr,l):
        deltarr = []
        i=0
        while len(arr)<0:
            deltarr[i]=avg(arr[-l:])
            i+=1
            arr = deltas(arr)
        return sum(deltarr)

    next_honesty = delta_based_prediction(honest(ophist),int(math.sqrt(len(ophist))))
    if abs(next_honesty-0.5)<0.1 or not opmove:
        return choice(['R','P','S'])
    next_honesty=int(clamp(round(next_honesty),0,1))
    winner = {'S': 'R', 'R': 'P', 'P': 'S'}

    if next_honesty > 0:
        return winner[opmove]

    return choice([opmove, winner[winner[opmove]]])

1

सब लोग झूठ बोलते हैं

import random

def everybodylies (opphist, myhist, oppmove, mymove):
    if mymove == None:
        return random.choice(["R","P","S"])
    elif mymove == "R": return "S"
    elif mymove == "P": return "R"
    elif mymove == "S": return "P"

यह अपनी चाल के बारे में झूठ बोलता है ("मैं कैंची खेलूँगा!"), और मानता है कि प्रतिद्वंद्वी भी झूठ बोल रहा था और उन्होंने कहा कि मैं जो भी कहूंगा उसे हराने की कोशिश करूँगा, मेरी चाल होगी ("हम्म, रॉक बीट्स कैंची इसलिए मैं खेल रहा हूँ वह "), लेकिन मैं वास्तव में उस चाल को चलाता हूं जो उस चाल को धड़कता है (" कागज! आश्चर्य! ")।


3
मेरे लिए Iocaine पाउडर रणनीति के पहले स्तर की तरह लगता है :-) "अब, एक चालाक आदमी ने अपने खुद के गोबल में जहर डाल दिया, क्योंकि वह जानता होगा कि जो दिया गया था उसके लिए केवल एक महान मूर्ख पहुंच जाएगा। मैं नहीं हूं। एक महान मूर्ख, इसलिए मैं स्पष्ट रूप से आपके सामने शराब का चयन नहीं कर सकता। लेकिन आप जानते होंगे कि मैं महान मूर्ख नहीं था, आप इस पर भरोसा करते होंगे, इसलिए मैं स्पष्ट रूप से मेरे सामने शराब का चयन नहीं कर सकता हूं। । "
एंटनी

1

बॉट पर भरोसा

def trusting_bot(h_opp, h_me, opp, me):
    if opp=="S":
        return "R"
    elif opp=="R":
        return "P"
    else:
        return "S"

हमेशा कैंची फेंकने का दावा करता है, लेकिन प्रतिद्वंद्वी ने जो कुछ भी कहा वह सब कुछ करेगा। मज़बूती से अपने साथ खींचेगा।


यह अधिक प्रभावी होगा यदि यह हमेशा अपने खिलाफ ईमानदार होगा।
ग्रीफॉन -

@Gryphon शायद, लेकिन मैं इतनी अच्छी तरह से अजगर नहीं है कि कुछ ऐसा बनाने की कोशिश करना चाहता हूं जो उस तरह से सहयोग करता है।
अताको

तो कोई बात नहीं।
ग्रिफॉन - मोनिका

1

बॉट नाम: लियार लियार

झूठ बोलना बंद नहीं कर सकता।

import random

def liarliar (herHistory, myHistory, herMove, myMove):
    options = ["R", "P", "S"]
    if myMove == None:
        return random.choice(options)
    else:
        options.remove(myMove);
        return random.choice(options)

1

RockBot

माना जाता है कि प्रतिद्वंद्वी ईमानदार होगा और उन्हें हराने की कोशिश करेगा, लेकिन रॉक खेलने से इंकार कर देगा।

import random
def rockBot(oppHist,myHist,oppMove,myMove):
    if oppMove == None:
        return random.choice(["R","P","S"])
    else:
        if(oppMove == "R"):
            return "P"
        elif(oppMove == "P"):
            return "S"
        elif(myMove != "R"):
            return myMove
        else:
            return random.choice(["P","S"])

1
यह त्रुटि प्रतीत होती है, क्योंकि आपकी अंतिम पंक्ति, "P", "S" वर्ग कोष्ठक (सूची में नहीं) के अंदर नहीं है। मैंने अपने संस्करण में इसे बदल दिया, लेकिन अगर आप यहां भी ऐसा कर सकते हैं, तो यह बहुत अच्छा होगा। धन्यवाद।
ग्रिएफॉन -

क्या यह लगातार कैंची को बुरी तरह से नहीं खोएगा?
वाइल्डकार्ड

@Wildcard हाँ, लेकिन यह पेपर बॉट के खिलाफ बहुत अच्छा करेगा
स्लीपप

1

बीओटी नाम: नॉटिलेटोम

यह निर्धारित करता है कि प्रतिद्वंद्वी झूठ बोल रहा है या नहीं, यह इस पर निर्भर करता है कि प्रतिद्वंद्वी ने अंतिम 10 राउंड में कितनी बार झूठ बोला। चयन इस बात पर निर्भर करता है कि प्रतिद्वंद्वी झूठ बोल रहा है या नहीं। यदि प्रतिद्वंद्वी को झूठ बोलने के लिए निर्धारित किया जाता है, तो खेलता है कि संकेत क्या था।

import random
def dontlietome(opp_moves, my_moves, opp_hint, my_hint):
    def is_trustworthy(moves, length):
        length = max(-length, -len(moves))
        history = [1 if move[0] == move[1] else 0 for move in moves[length:]]
        prob_honest = float(sum(history))/float(len(history))
        choice = random.uniform(0., 1.)
        if choice <= prob_honest:
            return True
        else:
            return False

    moves = ["R", "P", "S"]
    lose_against_map = {"S":"R", "R":"P", "P":"S"}
    length = 10
    if opp_hint == None:
        # Honest round
        return random.choice(moves)
    else:
        # Real round
        if len(opp_moves) < length:
            return my_hint
        if is_trustworthy(opp_moves, length):
            return lose_against_map[opp_hint]
        else:
            return my_hint

पंक्ति में "if_trustworthy (opp_moves, self.length):", स्व परिभाषित नहीं है। इसके अतिरिक्त, लाइन में "return खो_against_map [opp_hint]", खोने के लिए__ainainst_map को भी परिभाषित किया गया है। स्वयं को हटाकर स्वयं को हल करना प्रतीत होता है। लेकिन दूसरी समस्या अभी भी खड़ी है। जब तक यह तय नहीं हो जाता, मुझे डर है कि यह अमान्य है।
ग्रिएफॉन -

उफ़ मैंने एक ऑब्जेक्ट का उपयोग करके इसे लिखा था और मैं कुछ स्वयं के संदर्भों को हटाने और कोड को पूरी तरह से कॉपी करना भूल गया। घर पहुँचते ही मैं उन्हें ठीक कर दूँगा।
कूलियोसजुलियो

ठीक। यदि यह सिर्फ एक छोटी सी त्रुटि है, तो मैं इसे ठीक कर देता हूं (जैसा कि मेरे पास कुछ अन्य बॉट में है, और अगर यह सिर्फ स्वयं समस्या है), लेकिन एक लापता फ़ंक्शन एक अलग कहानी है।
ग्रिएफॉन -

@Gryphon मैंने बग को ठीक किया। (स्वयं को हटा दिया, संदर्भित जोड़ा lost_against_map, और अगर ईमानदार दौर की जाँच कर रहा है तो बयान को ठीक किया)
coolioasjulio

0
import random
def trustingRandom(a,b,c,d):
  move = random.choice(["R","P","S"])
  if c == "R":
    move = "P"
  elif c == "P":
    move = "S"
  elif c == "S":
    move = "R"
  return move

0

Averager

def averager(op, mp, od, md):
  import random
  if od == md == None:
    if op == mp == []:
      return random.choice('RPS')
    else:
      opa = [i[1] for i in op]
      copa = [opa.count(i) for i in 'RPS']
      copam = [i for i, j in zip('RPS', copa) if j == max(copa)]
      opd = [i[0] for i in op]
      copd = [opd.count(i) for i in 'RPS']
      copm = [i for i, j in zip('RPS', copd) if j == max(copd) and i in copam]
      return random.choice(copam if copm == [] else copm)
  else:
    if op == mp == []:
      return md
    else:
      hop = sum([1. if i[0] == i[1] else 0. for i in op]) / len(op)
      hmp = sum([1. if i[0] == i[1] else 0. for i in mp]) / len(mp)
      return 'PSR'['RPS'.index(od)] if hmp >= 0.75 and hop >= 0.50 else md

0

बस मेरी पिछली प्रविष्टि से थोड़ा बेहतर ...

def learningbot4(yourlist,mylist,you,me):
  CHECK={"R":{"R":0,"P":1,"S":-1},"P":{"R":-1,"P":0,"S":1},"S":{"R":1,"P":-1,"S":0}}
  results={None:{"R":0,"P":0,"S":0},"R":{"R":0,"P":0,"S":0},"P":{"R":0,"P":0,"S":0},"S":{"R":0,"P":0,"S":0}}
  for i in range(len(yourlist)):
    res=CHECK[yourlist[i][1]][mylist[i][1]]
    if mylist[i][0]==mylist[i][1]: res+=0.5
    results[yourlist[i][0]][mylist[i][1]]+=res
    results[None][mylist[i][0]]+=res
  return max(results[you],key=results[you].get)

0

स्टेरॉयड पर csbot

मुझे लगता है कि टिप्पणियों में @ user1502040 द्वारा किए गए सुझाव का पालन किया जाना चाहिए। अन्यथा इस बॉट का एक फायदा होगा कि मैं अनुचित समझूंगा। मैं इसे प्रस्तुत करता हूं ताकि यह जो फर्क पड़ता है उसका आकलन किया जा सके। सुझाए गए यादृच्छिक बीजों के साथ स्टेरॉयड को बेअसर किया जाएगा और बॉट इसके बराबर होगा csbot, इसलिए केवल एक को प्रतियोगिता में भाग लेना चाहिए।

from random import seed
from csbot import csbot

def csbot_on_steroids(ophist,myhist,opdecl,mydecl):
  seed()
  m = csbot(ophist,myhist,opdecl,mydecl)
  seed(0)
  return m
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.