Jane Doe


ﻭﺻﻞ ﺍﻟﺘّﻄﻮّﺭ ﺍﻟﻬﺎﺋﻞ ﻭﺍﻟﻤﺘﺼﺎﻋﺪ ﻓﻲ ﻣﺠﺎﻝ ﺻﻨﺎﻋﺔ ﺍﻟﺮّﻭﺑﻮﺗﺎﺕ ﺣﺪﻭﺩًﺍ ﺗﻜﺎﺩ ﻻ ﺗُﺼَﺪَّﻕ، ﺣﺘّﻰ ﺑﺎﺕ ﻣﺎ ﻛﺎﻥ ﻣﻦ ﺍﻟﻤﺴﺘﺤﻴﻞ ﺍﻟﻘﻴﺎﻡ ﺑﻪ ﻓﻴﻤﺎ ﻣﻀﻰ ﺃﻣﺮًﺍ ﻋﺎﺩﻳًّﺎ ﻣﻊ ﺍﻟﺘّﻨﻮّﻉ ﻭﺍﻟﺘّﻄﻮّﺭ ﺍﻟّﺬﻱ ﺷﻬﺪﻩ ﻫﺬﺍ ﺍﻟﻤﺠﺎﻝ. فمثلًا، ﻫﻞ ﻳﻨﺒﻐﻲ ﺃﻥ ﺗﻜﻮﻥ ﺍﻟﻤﺮﻛﺒﺎﺕ ﻣﻦ ﺩﻭﻥ ﺳﺎﺋﻖٍ ﺍﻟّﺘﻲ ﻭﺿﻌﺘﻬﺎ آﺑﻞ، ﻭﻏﻮﻏﻞ، ﻭﺷﺮﻛﺔ ﺩﻳﻤﻠﺮ، ﻣﺒﺮﻣﺠﺔً ﻟﺘﺴﻴﺮ ﻋﻠﻰ ﺍﻟﺮّﺻﻴﻒ ﻟﺘﻔﺎﺩﻱ ﺍﻻﺻﻄﺪﺍﻡ؟ ﺃﻭ ﻫﻞ ﻳﻨﺒﻐﻲ ﺃﻥ ﺗﻜﻮﻥ ﻣﺒﺮﻣﺠﺔً ﻟﻼﻧﺤﺮﺍﻑ ﻟﻀﺮﺏ ﺷﺨﺺٍ ﻭﺍﺣﺪٍ ﻣﻦ ﺃﺟﻞ ﺗﺠﻨّﺐ ﺿﺮﺏ ﺍﺛﻨﻴﻦ ﺁﺧﺮﻳﻦ؟ ﺃﻭ ﺍﺛﻨﻴﻦ ﺑﺪلًا ﻣﻦ ﺃﺭبعةٍ؟ ﺃﻭ ﺃﺭبعةٍ ﺑﺪلًا ﻣﻦ ﺷﺎﺣﻨﺔ ﻣﻠﻴﺌﺔٍ ﺑﺎﻟﻤﻮﺍﺩ ﺍﻟﻜﻴﻤﻴﺎﺋﻴّﺔ ﺍﻟﺨﻄﺮﺓ؟ ﺍﻟﺴّﻴّﺎﺭﺍﺕ ﻣﻦ ﺩﻭﻥ ﺳﺎﺋﻖٍ ﺍﻟﻤﺒﺮﻣﺠﺔ ﻟﻼﺧﺘﻴﺎﺭ ﻣﻦ ﺑﻴﻦ ﻫﺬﻩ ﺍﻟﺨﻴﺎﺭﺍﺕ ﺳﺘﻜﻮﻥ ﻣﺜﺎلًا ﻟﻤﺎ ﺃﺻﺒﺢ ﻳُﺪﻋَﻰ "ﺑﺎﻟﺮﻭﺑﻮﺗﺎﺕ ﺍﻷﺧﻼﻗﻴﺔ"، ﻭﺍﻟﺠﻴﻞ ﺍﻟﻘﺎﺩﻡ ﻣﻦ ﺍﻷﺳﻠﺤﺔ ﻳُﻌَﺪُّ ﻣﺜﺎلًا ﺁﺧﺮ ﻋﻠﻰ ﻫﺬﻩ ﺍﻟﺮّﻭﺑﻮﺗﺎﺕ. ﻋﻼﻭﺓً ﻋﻠﻰ ﺫﻟﻚ، ﺇﺫﺍ ﻟﻢ ﺗﻜﻦ ﺍﻟﻄّﺎﺋﺮﺍﺕ ﺑﺪﻭﻥ ﻃﻴّﺎﺭٍ ﺳﻴّﺌﺔً ﺑﻤﺎ ﻳﻜﻔﻲ، ﻓﺴﺘﻌﻜﻒ ﻭﺯﺍﺭﺓ ﺍﻟﺪّﻓﺎﻉ ﺍﻷﻣﺮﻳﻜﻴّﺔ ﻋﻠﻰ ﺗﻄﻮﻳﺮ ﻧُﻈُﻢ ﺍﻷﺳﻠﺤﺔ ﺍﻟﻔﺘّﺎﻛﺔ ﺍﻟﻤﺘﻤﺘّﻌﺔ ﺑﺎﻟﺘّﺤﻜّﻢ ﺍﻟﺬّﺍﺗﻲّ. ﺳﺘﻜﻮﻥ ﻫﺬﻩ ﺍﻷﻧﻮﺍﻉ ﻣﻦ ﺍﻷﺳﻠﺤﺔ ﻗﺎﺩﺭﺓً ﻋﻠﻰ ﺗﺤﺪﻳﺪ ﻗﺎﺋﻤﺔ ﺍﻟﻘﺘﻞ ﺍﻟﺨﺎﺻّﺔ بها ﺑﺎﺳﺘﺨﺪﺍﻡ ﻣﺠﻤﻮﻋﺔٍ ﻣﻦ ﺍﻟﺨﻮﺍﺭﺯﻣﻴّﺎﺕ، ﻭﻻ ﺗﺤﺘﺎﺝ ﺇﻟﻰ ﺃﻱّ ﺗﺪﺧّﻞٍ ﺑﺸﺮﻱٍّ، ﻣﻬﻤﺎ ﻛﺎﻧﺖ ﺍﻟﻤﺴﺎﻓﺔ ﺑﻌﻴﺪﺓً. ﻭﺗﺸﻤﻞ ﺍﻟﻄّﺎﺋﺮﺍﺕ ﺑﺪﻭﻥ ﻃﻴّﺎﺭٍ ﺫﺍﺗﻴّﺔ ﺍﻟﺘّﺤﻜﻢ الّتي يتمّ تطويرها حاليًّا، ﻣﺮﻭﺣﻴّﺔً ﺻﻐﻴﺮﺓً ﺑﺤﺠﻢ ﻛﺮﺓ ﺗﻨﺲ ﺍﻟﻄّﺎﻭﻟﺔ، ﺳﺘﻜﻮﻥ ﻗﺎﺩﺭﺓً ﻋﻠﻰ ﺍﻟﻄّﻴﺮﺍﻥ ﻋﺒﺮ ﺍﻟﻤﻨﺎﺯﻝ ﻭالمحلّات ﺍﻟﺘّﺠﺎﺭﻳّﺔ ﻭﻣﻜﺎﺗﺐ ﺍﻷﻋﻤﺎﻝ.

ﻓﻲ ﺗﻤﻮﺯ/ﻳﻮﻟﻴﻮ ﻋﺎﻡ 2015، ﻧﺸﺮﺕ ﻣﺠﻠّﺔ Nature ﻣﻘﺎلًا ﺑﻌﻨﻮﺍﻥ: ﻣﻌﻀﻠﺔ ﺍﻟﺮّﻭﺑﻮﺕ، ﺍﺩّﻋﻰ ﺃﻥّ ﻋﻠﻤﺎﺀ ﺍﻟﻜﻤﺒﻴﻮﺗﺮ ﻗﺪ ﻛﺘﺒﻮﺍ ﺑﺮﻧﺎمجًا منطقيًّا ﻳﻤﻜﻨﻪ ﺍﺗّﺨﺎﺫ ﻗﺮﺍﺭٍ ﺑﻨﺠﺎﺡٍ، كما أنّه ﻳﺄﺧﺬ ﻓﻲ ﺍﻻﻋﺘﺒﺎﺭ ﻣﺎ ﺇﺫﺍ ﻛﺎﻥ ﺍﻟﻀّﺮﺭ ﺍﻟﻤﺴﺒَّﺐ ﻫﻮ ﺍﻟﻨّﺘﻴﺠﺔ ﺍﻟﻤﻘﺼﻮﺩﺓ ﻣﻦ ﺍﻟﻌﻤﻞ، ﺃﻭ ﺑﺒﺴﺎﻃﺔٍ ﻫﻮ ﺿﺮﻭﺭﺓٌ ﻟﻪ. ﻭﻳﻘﻮﻝ ﺃﺣﺪ ﺍﻟﻌﻠﻤﺎﺀ الّذين يقفون ﻭﺭﺍﺀ ﺍﻟﺒﺮﻧﺎﻣﺞ ﺍﻟﻨّﺎﺟﺢ إنّ ﺍﻟﺨﻴﺎﺭﺍﺕ ﺍﻷﺧﻼﻗﻴّﺔ ﺍﻟﺒﺸﺮﻳّﺔ ﻣﺼﻨﻮﻋﺔٌ ﺑﻄﺮﻳﻘﺔٍ ﻣﺸﺎﺑﻬﺔٍ، ﻭﺇﻥّ ﺍﻟﻤﻨﻄﻖ ﻫﻮ ﻛﻴﻒ ﺃﻧّﻨﺎ ﻧﺄﺗﻲ ﺑﺨﻴﺎﺭﺍﺗﻨﺎ ﺍﻷﺧﻼﻗﻴّﺔ. ﻭﻟﻜﻦ ﻧﺎﺩﺭًﺍ ﻣﺎ ﻳﻤﻜﻦ ﺃﻥ ﻳﻜﻮﻥ ﻫﺬﺍ صحيحًا.

ﻭﺍﻟﻘﻮﻝ ﺑﺄﻥّ ﺍﻟﻤﻨﻄﻖ ﻫﻮ ﺑﺎﻟﻄّﺮﻳﻘﺔ ﺍﻟّﺘﻲ ﻧﺘّﺨﺬ ﺑﻬﺎ ﻗﺮﺍﺭﺍﺗﻨﺎ ﺍﻷﺧﻼﻗﻴّﺔ ﻳﺬﻛِّﺮ ﺍﻷﺫﻫﺎﻥ ﺑﻜﻼﻡ ﺍﻟﻔﻴﻠﺴﻮﻑ ﺍﻷمريكيّ ﻫﻴﻼﺭﻱ ﺑﻮﺗﻨﺎﻡ، ﺣﻴﺚ يقول ﺇﻥّ ﺍﻻﻓﺘﺮﺍﺽ ﺍﻟّﺬﻱ ﻇﻬﺮ ﻓﻲ ﺍﻟﻘﺮﻥ ﺍﻟﺜّﺎﻣﻦ ﻋﺸﺮ، ﻭﺍﻟّﺬﻱ ﻳﻘﻮﻝ ﺑﺄﻥّ ﺍﻷﺷﺨﺎﺹ ﺍﻷﺫﻛﻴﺎﺀ ﻭﺍﻟﻤﺘﻌﻠّﻤﻴﻦ ﺑﺸﻜﻞٍ ﺟﻴّﺪٍ، ﻭﺍﻟّﺬﻳﻦ ﺃﺗﻘﻨﻮﺍ ﻓﻦّ ﺍﻟﺘّﻔﻜﻴﺮ ﻓﻲ ﺃﻋﻤﺎﻝ ﻭﻣﺸﺎﻛﻞ ﺍﻟﻨّﺎﺱ، ﺳﻴﺸﻌﺮﻭﻥ ﺑﺎﻟﺮّضا ﻭﺍﻟﺮّﻓﺾ ﻓﻲ ﺁﻥ معًا، ﻣﺎ ﻟﻢ ﻳﻜﻦ ﻫﻨﺎﻟﻚ ﺧﻄﺄٌ ﻓﻲ ﻗﺎﻧﻮﻧﻬﻢ ﺍﻟﺸّﺨﺼﻲّ.

ﻭﻣﻊ ﺫﻟﻚ، ﻏﺎﻟﺒًﺎ ﻣﺎ ﺗﻜﻮﻥ ﺍﻟﺨﻴﺎﺭﺍﺕ ﺍﻷﺧﻼﻗﻴّﺔ ﻓﻲ ﻣﻮﺍﺟﻬﺔ ﺍﻟﻤﻨﻄﻖ. ﻓﻬﻲ ﻗﺪ ﺗﺄﺗﻲ ﻣﻦ ﺍﻟﻌﺎﻃﻔﺔ ﺃﻭ ﺍﻟﻌﻨﺎﺩ ﺍﻟﻄّﺒﻴﻌﻲّ، ﺃﻭ ﻣﻦ ﺇﻳﻤﺎﺀﺓٍ ﻏﺎﻣﻀﺔٍ، ﺃﻭ ﺣﺘّﻰ ﻣﻦ ﺍﻟﺨﻴﺎﻝ. ﻭﻓﻲ ﻫﺬﺍ ﺍﻟﺴّﻴﺎﻕ ﻳﻀﻴﻒ ﺭﻭﺑﺮﺕ ﻧﻴﻮﻣﺎﻥ: "ﺃﻧﺎ ﺃﺳﻴﺮ ﻓﻲ ﻭﻻﻳﺔ ﻛﺎﺭﻭلاينا ﺍﻟﺸّﻤﺎﻟﻴّﺔ ﻣﻊ "ﺟﻴﺶ ﺍﻻﺗّﺤﺎﺩ" ﻋﻠﻰ ﺍﻗﺘﻨﺎﻉٍ ﺗﺎﻡٍّ ﻣﻨﻄﻘﻴًّﺎ ﺑﺄنّ ﺍﻻﻧﺘﺼﺎﺭ ﺍﻟﻌﺴﻜﺮﻱّ ﻋﻠﻰ ﺍﻟﻜﻮﻧﻔﺪﺭﺍﻟﻴّﺔ فحسب ﺳﻴﻠﻐﻲ ﻣﺆﺳّﺴﺔ ﺍﻟﺮِّﻕّ ﺍﻟﺒﻐﻴﻀﺔ، ﻭﻟﻜﻦ ﻋﻨﺪﻣﺎ ﺃﺭﻯ ﻭﺟﻪ ﺍﻟﻌﺪوّ، ﻫﺰﻳﻼً، حافيًا، ﺫا ﺳﺒﻌﺔ ﻋﺸﺮ ﻋﺎﻣًﺎ، ﺃﺭﻣﻲ ﻣﺴﺪّﺳﻲ ﺑﻌﻴﺪًﺍ، ﻭﺃﺑﻜﻲ ﻫﺎﺭﺑًﺎ ﻣﻦ ﻣﻴﺪﺍﻥ ﺍﻟﻤﻌﺮﻛﺔ. ﻫﺬﺍ ﻗﺮﺍﺭٌ ﺃﺧﻼﻗﻲّ، ﺃﺩّﻯ ﺇﻟﻰ ﺍﺗّﺨﺎﺫ ﺇﺟﺮﺍﺀﺍﺕٍ ﺣﺎﺳﻤﺔٍ: ﻟﻴﺲ ﺑﺪﻡٍ ﺑﺎﺭﺩٍ، ﻭﺇﻧّﻤﺎ ﻳﺘﻌﺎﺭﺽ ﻣﻊ ﻣﻨﻄﻖ ﻣﻮقفي."

ﻛﻮﻧَﻪ ﻏﻴﺮ ﻗﺎﺩﺭٍ ﻋﻠﻰ ﺍﻟﻘﻴﺎﻡ ﺑﺎﻷﻋﻤﺎﻝ ﺍﻹﻧﺴﺎﻧﻴّﺔ ﺍﻟﺼّﻌﺒﺔ، ﻳَﺴﺘﺒﻌﺪُ ﺑﺮﻧﺎﻣﺞ ﺍﻟﺮّﻭﺑﻮﺕ ﺍﻷﺧﻼﻗﻲّ ﺍﻷﻓﻜﺎﺭَ ﻏﻴﺮ ﺍﻟﻤﺘﻮﺍﻓﻘﺔ ﻣﻊ ﺑﻌﻀﻬﺎ. ﺇﺫن، ﻋﻠﻰ ﺳﺒﻴﻞ ﺍﻟﻤﺜﺎﻝ، ﺗﺮﻳﺪ ﻭﺯﺍﺭﺓ ﺍﻟﺪّﻓﺎﻉ ﺍﻷﻣﺮﻳﻜﻴّﺔ ﺗﻄﻮﻳﺮ ﻧﻈﺎﻡ ﺃﺳﻠﺤﺔٍ ﻓﺘّﺎﻛﺔٍ ﻣﺘﻤﺘّﻌﺔٍ ﺑﺎﻟﺘّﺤﻜّﻢ ﺍﻟﺬّﺍﺗﻲّ ﻟﻴﻜﻮﻥ ﻧﻈﺎﻡ ﺃﺳﻠﺤﺔٍ "ناجحًا"، ﻗﺪ ﺗﺴﺘﺒﻌﺪ بياناته ﺍﻷﺧﻼﻗﻴّﺔ ﺍلميثاق ﺍﻟﺪّﻭﻟﻲّ ﺍﻟﺨﺎﺹّ ﺑﺎﻟﺤﻘﻮﻕ ﺍﻟﻤﺪﻧﻴّﺔ ﻭﺍﻟﺴّﻴﺎﺳﻴّﺔ ‏(1966)، ﻣﻊ ﺃﺣﻜﺎﻣﻪ ﺍﻟﻤﺘﻌﻠّﻘﺔ ﺑﺄﻣﻦ ﺍﻷﺷﺨﺎﺹ، ﻭﻋﺪﺍﻟﺔ ﺍﻹﺟﺮﺍﺀﺍﺕ، ﻭﺣﻘﻮﻕ ﺍﻟﻤﺘّﻬﻢ.

ﺍﻟﺤﺪﻳﺚ ﻋﻦ ﺍﻟﻌﺪﺍﻟﺔ ﺍﻹﺟﺮﺍﺋﻴّﺔ ﻳﻘﻮﺩﻧﺎ ﺇﻟﻰ ﻓﻴﻠﺴﻮﻑٍ ﺑﺎﻋﺘﻘﺎﺩﻱ ﻳﻘﺪّﻡ ﻋﻤﻠﻪ ﺃﻓﻜﺎﺭًﺍ ﻗﻴّﻤﺔً ﺣﻮﻝ ﺍﻟﻤﺸﺎﻛﻞ ﺍﻟﻤﺮﺗﺒﻄﺔ ﺑﺎﻟﺮّﻭﺑﻮﺗﺎﺕ ﺍﻷﺧﻼﻗﻴّﺔ. ﻛﻀﺎﺑﻂ ﺍﺳﺘﺨﺒﺎﺭﺍﺕٍ ﻓﻲ ﺍﻟﺤﺮﺏ ﺍﻟﻌﺎﻟﻤﻴّﺔ ﺍﻟﺜّﺎﻧﻴﺔ، ﺃﺩّﻯ ﺍﺳﺘﺠﻮﺍﺏ ﺳﺘﻴﻮﺍﺭﺕ ﻫﺎﻣﺒﺸﻴﺮ ﻷﺣﺪ ﻛﺒﺎﺭ ﺍﻟﻨّﺎﺯﻳّﻴﻦ ﻟﻠﻘﻮﻝ ﺑﺄﻥّ ﺳﻴﺎﺩﺓ ﺍﻟﻌﺪﺍﻟﺔ ﺍﻹﺟﺮﺍﺋﻴّﺔ ﻓﻮﻕ ﺟﻤﻴﻊ ﺍﻟﻤﻔﺎﻫﻴﻢ ﺍﻷﺧﺮﻯ ﻟﻠﻌﺪﺍﻟﺔ، ﻭﻗﺎﻝ ﺇﻧّﻪ ﻻ ﻳﻤﻜﻦ ﺃﻥ ﺗﻜﻮﻥ ﻫﻨﺎﻙ ﻋﺪﺍﻟﺔٌ ﺑﻤﻌﻨﺎﻫﺎ ﺍﻟﻮﺍﺳﻊ ﺩﻭﻥ ﺍﻟﻌﺪﺍﻟﺔ ﺑﺎﻟﻤﻌﻨﻰ ﺍﻟﻀّﻴّﻖ، ﺃﻱ ﺍﻹﺟﺮﺍﺋﻴّﺔ ﻣﻨﻬﺎ. ﺣﺘﻰ ﻟﻮ ﻛﺎنت ﻧﺘﻴﺠﺔ ﺍﻟﻤﺤﺎﻛﻤﺔ ﺃﻣﺎﻡ ﻫﻴﺌﺔ ﻣﺤﻠَّﻔﻴﻦ ﻣﻄﺎﺑﻘﺔً ﻟﻨﺘﺎﺋﺞ "ﻣﺤﻜﻤﺔ ﺍﻟﻜﻨﻐﺮ"، فإنّ ﺇﻫﻤﺎﻝ ﺇﺟﺮﺍﺀٍ ﻣﻠﺰﻡٍ ﻭﺍﺣﺪٍ يجعل ﺃﺣﺪَ ﺍﻟﺤﻜﻤﻴﻦ ﻇﺎلمًا ﻭﺍﻵﺧﺮ ﻋﺎﺩلًا.

ﻭﻳﻨﻄﺒﻖ ﻫﺬﺍ ﻧﻔﺴﻪ ﻋﻠﻰ ﺍﻟﻘﺎﻧﻮﻥ ﺍﻵﻟﻲّ. ﻟﻦ ﺗﺠﻌﻞ ﺟﻤﻴﻊُ الغيغابايتات ﺍﻟﻤﻮﺟﻮﺩﺓ ﻓﻲ ﺍﻟﻌﺎﻟﻢ ﻣﺠﻤﻮﻋﺔً ﻣﻦ ﺍﻟﺨﻮﺍﺭﺯﻣﻴّﺎﺕ ﻣﺤﺎﻛِﻤﺔً ﻋﺎﺩﻟﺔً. ﺑﺪلًا ﻣﻦ ﺫﻟﻚ، ﺗﺴﺘﻘﻀﻲ ﺍﻟﻌﺪﺍﻟﺔ ﺇﺟﺮﺍﺀ ﻣﺤﺎﻛَﻤﺔٍ ﻋﺎﺩﻟﺔٍ ﻣﻦ ﻗﺒﻞ ﻣﻮﺍﻃﻨﻴﻦ ﻣﻦ ﻟﺤﻢٍ ﻭﺩﻡٍ ﺿﻤﻦ ﺇﻃﺎﺭ ﻋﻤﻠﻴّﺔٍ ﻋﺎﺩﻟﺔٍ، ﻷنّ ﺍﻟﻀّﺤﺎﻳﺎ عادةً يطلبون ﻣﻦ ﺍﻟﻤﺤﻜﻤﺔ ﺃﻥ ﺗﻨﻈﺮ ﻓﻲ ﻣﻌﺎﻧﺎﺗﻬﻢ ﺍﻟﻨّﻔﺴﻴّﺔ ﻭﺍﻟﻌﺎﻃﻔﻴّﺔ. بطبيعتها، ﻻ ﻳﻤﻜﻦ ﺃﻥ ﺗﻜﻮﻥ ﺍﻟﻌﺪﺍﻟﺔ ﻣﻮﺿﻮﻋﻴّﺔً ﻭﻋﺎﺩﻟﺔً ﺑﻨﻔﺲ ﺍﻟﻮﻗﺖ.

ﺗﻔﻮﻳﺾ ﺍﻷﺧﻼﻗﻴّﺎﺕ ﻟﻠﺮّﻭﺑﻮﺗﺎﺕ ﻋﻤﻞٌ ﻏﻴﺮ ﺃﺧﻼﻗﻲٍّ، ﻻ ﻟﻤﺠﺮّﺩ ﺃﻥّ ﺍﻟﺮّﻭﺑﻮﺗﺎﺕ ﺗﺘﺒّﻊ ﻛﻮﺩًا ثُنائيًّا بدل ﺍلأﺧﻼﻕ، ﺑﻞ ﻷﻧّﻪ ﻻ ﻳﻤﻜﻦ ﻷﻱّ ﺑﺮﻧﺎﻣﺞٍ ﺃﻥ ﻳﺤﻠّﻞ ﺍﻻﺣﺘﻤﺎﻻﺕ ﺍﻟّﺘﻲ ﻻ ﺗُﺤﺼَﻰ، ﺃﻭ أن يستخدم ﺳﺮﻋﺔ ﺍﻟﺒﺪﻳﻬﺔ ويتعامل ﻣﻊ ﺍﻟﺘّﻌﻘﻴﺪﺍﺕ ﺍﻟّﺘﻲ ﺗﻨﻄﻮﻱ ﻋﻠﻴﻬﺎ ﺣﺘّﻰ ﺃﺑﺴﻂ ﺍﻟﺤﺎﻻﺕ ﺃﻣﺎﻡ ﻗﺎﺽٍ ﺃﻭ ﻫﻴﺌﺔ محلّفين. ﻭﻳُﻌَﺪُّ ﺍﻟﻘﺎﻧﻮﻥ ﻣُﺮشَّحًا ﺁﺧﺮ ﻟﻼﺳﺘﻌﺎﻧﺔ ﺑﺮﻭﺑﻮﺗﺎﺕٍ ﻣﺤﺎميةٍ ﺃﺧﻼقيّةٍ.

ﻓﻲ ﺍﻟﻌﺎﻡ ﺍﻟﻤﺎﺿﻲ، تحدّث ﺃﺣﺪ ﻛﺒﺎﺭ ﺍﻟﻤﺴﺆﻭﻟﻴﻦ ﺍﻟﺘّﻨﻔﻴﺬﻳّﻴﻦ ﻓﻲ ﺷﺮﻛﺔ IBM ﺧﻼﻝ ﺑﺚٍّ ﺇﺫﺍﻋﻲٍّ ﻟﺮﺍﺩﻳﻮ BBC ﻋﻦ ﻋﺠﺎﺋﺐ ﺍﻟﺮّﻭﺑﻮﺗﺎﺕ. فبينما ﻻ تقوم ﺍﻟﺮّﻭﺑﻮﺗﺎﺕ باﻟﻮﻇﺎﺋﻒ ﺍﻟﻴﺪﻭﻳّﺔ ﺍﻟﺪّﻗﻴﻘﺔ، كعمال الحدائق ﺃﻭ البوّابين، سيمكنها ﺑﺴﻬﻮﻟﺔٍ ﺍﻟﻘﻴﺎﻡ ﺑﻜﻞّ ﻣﺎ يفعله المحامون، ﻭﻗﺮﻳﺒًﺎ ﺳﻮﻑ ﺗﺠﻌﻞ ﺍﻟﺤﺎﺟﺔ ﻟﻠﻤﺤﺎﻣﻴﻦ ﺍﻟﺒﺸﺮﻳّﻴﻦ ﺃﻣﺮًﺍ ﻏﻴﺮ ﻣﺮﻏﻮﺏٍ ﻓﻴﻪ. ﻭﻣﻊ ﺫﻟﻚ، ﻋﻨﺪﻣﺎ ﻛﺎﻥ ﻣﻮﻓﺎﺕ ﺑﻮﺏ، ﻧﺎﺋﺐ ﺭﺋﻴﺲ ﺷﺮﻛﺔ IBM، ﻓﻲ ﻣﺤﺎﻛﻤﺔٍ ﻓﻲ ﻣﺤﻜﻤﺔ ﻣﺎﻧﻬﺎﺗﻦ ﺍﻻﺗّﺤﺎﺩﻳﺔ، ﺑﺘﻬﻤﺔ ﺃﻛﺒﺮ ﻋﻤﻠﻴّﺔ ﺗﺤﺎﻳﻞٍ ﻋﻠﻰ ﺻﻨﺪﻭﻕ ﺍﻟﺘّﺤﺼﻴﻞ ﻟﻠﺘّﺠﺎﺭﺓ ﺍﻟﺪّﺍﺧﻠﻴﺔ ﻓﻲ ﺍﻟﺘّﺎﺭﻳﺦ، ﻭﺿﻊ ﻛﻞّ آﻣﺎﻟﻪ ﻓﻲ ﺃﺣﺪ ﺃﻗﺪﻡ ﻣﺤﺎﻣﻲ ﺍﻟﺪّﻓﺎﻉ ﺍﻟﺒﺸﺮﻳّﻴﻦ، لسببٍ غير مفهومٍ. ربّما كان المحامي الرّوبوت لينقذه ﻣﻦ ﺛﺒﻮﺕ ﺗﻬﻤﺘﻲ ﺍﻟﺘّﺂﻣﺮ ﻭﺍﻻﺣﺘﻴﺎﻝ، ﻭﻟﻜﻦ ﻋﻨﺪﻣﺎ ﺟﺎﺀ ﻭﻗﺖ ﺍﻟﺤﺴﻢ، ﻋﺮﻑ ﻧﺎﺋﺐ ﺭﺋﻴﺲ ﺷﺮﻛﺔ IBM، ﻛﻤﺎ هو حال ﺍﻟﺒﻘﻴّﺔ ﻣﻨﺎ، ﺃﻥّ ﻋﺒﺎﺭﺓ "ﺃﺧﻼﻗﻴّﺔ ﺍﻟﺮّﻭﺑﻮﺗﺎﺕ" ﺗﻨﻄﻮﻱ ﻋﻠﻰ ﻛﺜﻴﺮٍ ﻣﻦ ﺍﻟﺘّﻨﺎﻗﻀﺎﺕ.