quinta-feira, 27 de fevereiro de 2014

EPOPÉIA TRI nº29

 

Ebal

002_ET29 (2) 

101_ET29 (101)

AS GARÇAS BRANCAS (Universo em Desencanto vol.1)

 

Manoel Jacintho Coelho

image

AS LEIS DA HUMÂNICA (Visões de Robô, Editora Record)


HomemBicentenario
                                     ISAAC ASIMOV
Meus primeiros três romances a respeito de robôs foram, essencialmente,
romances de mistério, nos quais o detetive era um homem chamado Elijah Baley.
Desses romances, o segundo, Os Robôs/The Naked Sun, era um mistério do tipo
quarto fechado, no sentido de que não tinha sido encontrada nenhuma arma ao
lado do cadáver, mas também não parecia haver nenhuma maneira de tirar a arma
do local do crime.
Consegui apresentar uma solução satisfatória, mas não me aventurei a
tentar de novo esse tipo de enredo.
O quarto romance sobre robôs, Os Robôs e o Império/Robots and Empire, não
era exatamente uma história de mistério. Elijah Baley morrera de causas naturais,
depois de chegar a uma idade avançada, e o livro se aproximava do universo da
Fundação, deixando claro que eu pretendia fundir a série dos robôs e a série da
Fundação em um todo coerente. (Não, não fiz isso arbitrariamente. Foi uma
conseqüência da necessidade de escrever, na década de 1980, continuações de
histórias que tinham sido escritas nas décadas de 1940 e 1950.)
Em Os Robôs e o Império, um certo robô, Giskard, por quem eu tinha um
carinho especial, começou a se preocupar com as “Leis da Humânica”, que, como
sugeri a certa altura, poderiam eventualmente servir de base para a ciência da psicohistória,
que desempenha um papel tão importante na série da Fundação.
Estritamente falando, as Leis da Humânica deveriam ser uma descrição, em
forma concisa, de como os seres humanos se comportam.
Naturalmente, não existe nada do gênero. Mesmo os psicólogos, que
estudam a questão de forma científica (pelo menos, é o que espero que façam) não
podem apresentar nenhuma “lei”, mas apenas explicações complicadas e tortuosas
de como as pessoas se comportam. E nenhuma delas é absoluta. Quando um
psicólogo afirma que as pessoas respondem a um estímulo desta ou daquela forma,
está dizendo apenas que algumas pessoas fazem isso em certas ocasiões. Outras
pessoas podem se comportar de forma diferente em outras ocasiões.
Se tivermos que esperar que as leis que descrevem o comportamento
humano sejam formuladas para começar a desenvolver a psico-história (e não vejo
outra saída), acho que ainda teremos que esperar muito tempo.
Nesse caso, o que vamos fazer com as Leis da Humânica? Acho que o
melhor é começar modestamente e depois, se possível, aperfeiçoá-las.
Assim, em Os Robôs e o Império, é um robô, Giskard, que levanta a questão
das Leis da Humânica. Sendo um robô, ele tende a encará-las do ponto de vista das
Três Leis da Robótica, que são leis de verdade, já que os robôs são forçados a
respeitá-las.
As Três Leis da Robótica são:

1 - Um robô não pode fazer mal a um ser humano ou, por omissão,
permitir que um ser humano sofra algum tipo de mal.
2 - Um robô deve obedecer às ordens dos seres humanos, a não ser que
entrem em conflito com a Primeira Lei.
3 - Um robô deve proteger a própria existência, a não ser que essa proteção
entre em conflito com a Primeira ou a Segunda Lei.


Ao que me parece, um robô não pode deixar de pensar que os seres
humanos deveriam se comportar de forma a tornar mais fácil a obediência a essas
leis por parte dos robôs.
Na verdade, acredito que os próprios seres humanos deveriam estar
dispostos a facilitar a vida dos robôs. Abordei esta questão na história “O Homem
Bicentenário”, publicado em 1976. Nesse conto, um personagem humano diz o
seguinte:
“Se um homem tem o direito de dar qualquer ordem a um robô que não
cause mal a um ser humano, ele deveria ter a decência de jamais dar a um robô
qualquer ordem que causasse mal a um robô, a não ser que a segurança dos seres
humanos estivesse em jogo. Quanto maior o poder, maior deve ser a
responsabilidade; se os robôs têm as Três Leis para proteger os seres humanos, será
que é muito pedir que tenhamos uma ou duas leis para proteger os robôs?”
Por exemplo: a Primeira Lei tem duas partes. A primeira parte, “Um robô
não pode fazer mal a um ser humano”, é muito clara e não precisa sei discutida. A
segunda, “ou, por omissão, permitir que um ser humano sofra algum tipo de mal”,
é um pouco mais confusa. Um ser humano pode estar em perigo por causa de algo
inanimado. Um objeto pesado pode estar para cair na sua cabeça, ou ele pode ter
escorregado e caído em um lago, ou qualquer coisa semelhante. Nesse caso, o robô
simplesmente deve intervir para salvá-lo do perigo: tirá-lo de baixo do objeto que
está caindo, levá-lo para a margem do lago etc. Um ser humano também pode estar
sendo ameaçado por um animal irracional, um leão, por exemplo, e o robô é
obrigado a defendê-lo.
O que acontece, porém, quando um ser humano é ameaçado por outro ser
humano? Nesse caso, o robô tem que pensar duas vezes. Será que ele pode salvar
um dos seres humanos sem fazer mal ao outro? Caso isso seja impossível, como
fazer para que os males causados aos seres humanos envolvidos sejam mínimos?
Seria muito mais fácil para o robô se os seres humanos se preocupassem
tanto com o bem-estar de outros seres humanos quanto os próprios robôs; na
verdade, todos os códigos de ética que se prezam dizem que os seres humanos
devem respeitar seus semelhantes. O que é o equivalente, para os humanos, da
Primeira Lei da Robótica. Assim, a Primeira Lei da Humânica, do ponto de vista
dos robôs, deve ser a seguinte:
- Um ser humano não pode fazer mal a outro ser humano ou, por omissão, permitir que um ser humano sofra algum tipo de mal.Se essa lei for obedecida, o robô só precisará proteger os seres humanos
dos perigos causados por objetos inanimados e animais irracionais, o que não
envolve nenhum problema ético. Naturalmente, o robô ainda deve estar alerta para
males causados involuntariamente por outros seres humanos. Ele também deve estar
preparado para socorrer um ser humano se outro ser humano simplesmente não
puder salvá-lo a tempo. Acontece que mesmo um robô pode fazer mal
involuntariamente a um ser humano, e mesmo um robô pode não ser suficientemente
rápido ou habilidoso para salvar um ser humano em perigo; afinal, ninguém é
perfeito.
Isso nos leva à Segunda Lei da Robótica, que obriga um robô a obedecer a
todas as ordens dos seres humanos, a não ser as que entrem em conflito com a
Primeira Lei. Isso quer dizer que os seres humanos podem dar qualquer ordem a
um robô, contanto que essa ordem não prejudique um ser humano.
Acontece que um ser humano poderia mandar um robô fazer alguma coisa
impossível ou dar-lhe uma ordem que o envolvesse em um dilema capaz de
danificar o seu cérebro. Assim, no meu conto “Mentiroso!”, publicado em 1940,
um humano colocou deliberadamente um robô em um dilema tal que o seu cérebro
queimou e ficou inutilizado.
Podemos imaginar até que, à medida que os robôs se tornarem mais
inteligentes, seus cérebros ficarão sensíveis a ponto de sofrerem danos se forem
forçados a fazer alguma coisa embaraçosa ou humilhante. Assim, a Segunda Lei da
Humânica teria que ser:
2 - Um ser humano deve dar ordens a um robô que preservem a sua existência, a não ser que essas ordens permitam que um ser humano sofra algum tipo de mal.A Terceira Lei da Robótica se destina a proteger os robôs, mas do ponto de
vista dos robôs ela não é suficiente. Um robô deve sacrificar a própria existência se
a Primeira ou a Segunda Lei tornar isso necessário. No que se refere à Primeira Lei,
não há discussão possível. Um robô deve sacrificar a própria existência se for a
única maneira de impedir que um ser humano sofra algum tipo de mal. Se
admitirmos que os seres humanos são intrinsecamente superiores aos robôs (algo
que, na verdade, reluto um pouco em admitir), esta conclusão é inevitável.
Por outro lado, um robô deve sacrificar a própria existência apenas para
obedecer a uma ordem que pode ser leviana, ou mesmo mal-intencionada? Em “O
Homem Bicentenário”, alguns moleques dão ordem a um robô para desmontar a si
próprio, simplesmente para se divertir. A Terceira Lei da Humânica deve ser
portanto:
3 - Um ser humano não deve fazer mal a um robô, ou, por omissão, permitir que um robô sofra algum tipo de mal, a menos que esse mal seja necessário para evitar que um ser humano sofra algum tipo de mal.Naturalmente, não podemos implantar essas leis como implantamos as Leis
da Robótica, já que não somos nós que projetamos os cérebros humanos. Trata-se,
porém, de uma mensagem de alerta, e acredito sinceramente que se vamos ter
poder sobre os robôs inteligentes, então, como disse um dos personagens humanos
de “O Homem Bicentenário”, também devemos assumir uma certa
responsabilidade em relação a eles.

ARABIAN ADVENTURE

 

Arabian Adventure 01

AIRTO DE VOLTA (POR POUCO TEMPO) AO PAÍS DA BUROCRACIA (Jornal de Música, agosto de 1977)

                                        ------------------------------