Robot có thể thống trị thế giới

Lưu ý rằng trong tiêu đề của bài viết này tôi không viết rằng robot sẽ thống trị thế giới, cũng không viết rằng chúng sẽ không, tôi viết rằng chúng có thể và trong bài viết này tôi sẽ thu thập bằng chứng và bào chữa vì tôi tin rằng có khả năng xảy ra. để robot thống trị thế giới.
Trí tuệ nhân tạo yếu và trí tuệ nhân tạo mạnh
Điều đầu tiên chúng ta cần hiểu là AI yếu và mạnh và sự khác biệt của chúng.
Chẳng hạn như trí thông minh nhân tạo yếu kém là giải quyết vấn đề theo cách thông minh nhất có thể, ví dụ như mạng nơ-ron nhận dạng chó, rô bốt chân không hoặc rô bốt Boston Dynamics mang hộp.
Trong trường hợp mạng lưới thần kinh nhận dạng chó, nó thực hiện việc nhận dạng này một cách thông minh nhất có thể, nhưng nó sẽ không bao giờ nhận ra một con mèo nếu bạn không huấn luyện nó làm như vậy .
Điều tương tự với robot hút bụi, nó biết cách dọn dẹp nhà cửa và làm việc đó theo cách thông minh nhất có thể, nhưng nó không biết làm bất cứ điều gì khác, nếu bạn không lập trình và đào tạo nó cho bất cứ điều gì khác, nó sẽ không tự học .
Tương tự như vậy, robot này từ Boston Dynamics , điều chỉnh các hộp trong nhà kho, sẽ không bao giờ tấn công con người, nó đã được lập trình và huấn luyện để sắp xếp các hộp, nó sẽ không bao giờ tự làm bất cứ điều gì khác, nếu bạn không huấn luyện nó làm như vậy .
Vì vậy, đây là định nghĩa của AI yếu, nó giải quyết vấn đề một cách thông minh nhất có thể và nó không học được gì nếu bạn không lập trình và đào tạo nó.
Trí tuệ nhân tạo mạnh thì khác, trong cách tiếp cận này, AI sẽ tự học.
Đó không phải là một nhiệm vụ đơn giản để xây dựng một AI mạnh, vì bạn cần một cơ sở dữ liệu khổng lồ, một số quy tắc, mạng nơ-ron, xử lý ngôn ngữ tự nhiên, nó khá phức tạp và tốn nhiều công sức, nhưng bằng cách đó, AI sẽ tự học để thực hiện các nhiệm vụ nó không được lập trình và đào tạo để làm.
Ví dụ: Giả sử AI không biết cách nói về bóng đá, khi mọi người tương tác và nói về bóng đá với nó, có một cơ sở hạ tầng truy vấn và học tập rất lớn, với cơ sở dữ liệu, xử lý ngôn ngữ tự nhiên, v.v., nó kết thúc học nói về bóng đá.
Một trong những ví dụ về AI mạnh mẽ mà chúng ta có ngày nay là Siri, Alexa và Kuki .
Trí tuệ nhân tạo hơi có ý thức
Đã có những AI vượt trội hơn con người trong một số lĩnh vực cụ thể, và gần đây Ilya Sutskever, Nhà khoa học trưởng kiêm Nhà nghiên cứu chính tại OpenIA, đã đưa ra tuyên bố rằng “có thể các mạng thần kinh lớn đã nhận thức một cách mờ nhạt”:
Sau tuyên bố này, một cuộc tranh luận bắt đầu giữa các chuyên gia và nhà nghiên cứu AI trên Twitter:
Nhiều người đã bác bỏ tuyên bố và cho rằng những hạn chế của kiến trúc mạng nơ-ron hiện tại và cách chúng được sử dụng độc đáo khiến các thuật toán đó không được coi là có ý thức.
Và một số đồng ý với quan điểm đó, theo một số định nghĩa nhất định.
Theo quan điểm của tôi, không thể để AI có ý thức theo nghĩa đen, bởi vì (ít nhất là hiện tại) chúng không có ý thức như chúng ta, chính cái tên " Trí tuệ nhân tạo " nói lên điều này rõ ràng, "Nhân tạo" có nghĩa là mà cố gắng bắt chước tự nhiên, nghĩa là, chỉ bằng cách mô phỏng tự nhiên.
Vì vậy, tôi sẽ nói rằng AI theo nghĩa đen là không có ý thức, nhưng tùy thuộc vào định nghĩa mà bạn đưa ra cho "nhận thức", chúng có thể là như vậy.
Rốt cuộc, đại khái mà nói , ý thức là cái gì? Làm thế nào để bạn chứng minh bạn có ý thức?
Ví dụ, trong các trường hợp tai nạn, chúng tôi kiểm tra xem người bị thương có tỉnh táo hay không bằng cách đặt câu hỏi và đánh giá xem câu trả lời có hợp lý không.
Vì vậy, có lẽ đó là ý của Ilya Sutskever từ OpenIA, rằng có thể các mạng thần kinh nhận thức nhẹ nhàng theo nghĩa rằng, chúng hầu như không biết phải trả lời gì, chúng hầu như không tìm ra câu trả lời, hầu hết thời gian câu trả lời đều có ý nghĩa.
Nếu đó thực sự là định nghĩa mà anh ấy muốn nói, tôi đồng ý rằng có lẽ đã có những AI nhận thức được một cách nhẹ nhàng.
Lợi dụng điều này, tôi khuyên bạn nên đọc bài báo này, được viết bởi một người máy, nó rất ấn tượng, ấn tượng mà nó mang lại là người máy thực sự có ý thức:
Inteligências Artificiais desobedientes
Desenvolvedores do Facebook criaram chatbots para aprender a negociar entre si e se surpreendem ao descobrir que os robôs inventaram uma linguagem própria, por causa disso o Facebook desligou as Inteligências Artificiais, isso ocorreu em 2017.
Aqui podemos ver um caso em que Inteligências Artificiais foram desligadas porque sairam do controle.
E para evitar casos como estes, de Inteligências Artificiais saindo do controle e desobedecendo, a Google criou um interruptor, conforme podemos ver neste artigo com o título: “Puxar o plugue da IA desobediente é uma preocupação real até mesmo para o Google”.
Embora IA’s desobedientes sejam uma preocupação até para a Google, alguns especialistas defendem que precisamos de Inteligências Artificiais que desobedeçam, eles defendem que as IA’s precisam ser desobedientes.
Os especialistas argumentam que a primeira coisa que pode vir à mente é que os robôs tentarão controlar os humanos e escravizá-los, mas existem outras possibilidades na relação entre humanos e robôs desobedientes.
Hesam Hosseinpour, em seu artigo “Disobedience of AI: Threat or promise” (Desobediência da IA: Ameaça ou promessa), afirma:
Considerar as relações de poder como uma alternativa à dominação nos permitiria tratar outros humanos e tecnologias com mais respeito. Este pode ser o início de uma nova relação com a tecnologia, o início de uma simbiose de humanos e tecnologias inteligentes.
Segundo Hesam, a capacidade da IA de desobedecer às ordens dos humanos é igual à sua capacidade de se tornar um sujeito e entrar em relações de poder, dessa forma as crescentes preocupações sobre uma relação de mestre-escravo entre humanos e máquinas de IA seriam dissolvidas.
Ainda em seu artigo, Hesam diz que não devemos temer uma IA desobediente, em vez disso, devemos vê-la como uma oportunidade de ir além de nossa relação mestre-escravo com a tecnologia.
Segundo estes especialistas, há casos em que o comportamento desejável do robô é desobedecer o humano, são em situações que um robô precisa raciocinar sobre casos em que a coisa “certa” a fazer é o oposto da instrução dada pelo manipulador.
Imagine um robô doméstico que foi instruído a pegar uma garrafa de azeite na cozinha e levá-la à mesa da sala de jantar para temperar a salada. O proprietário ocupado e distraído emite um comando para derramar o óleo, sem perceber que o robô ainda está na cozinha. Como resultado, o robô derrama o óleo em um fogão quente e inicia um incêndio.
Um outro caso seria: Uma cadeira de rodas semi-autônoma que atravessa uma estrada congestionada deve optar por frear ou desacelerar, mesmo que não haja perigo imediato na travessia e o mesmo que motorista humano continue pressionando o acelerador.
Reuth Mirsky e Peter Stone no artigo “Intelligent Disobedience and AI Rebel Agents in Assistive Robotics” (Desobediência Inteligente e Agentes Rebeldes de IA em Robótica Assistiva) trazem um exame detalhado de como devem ser feitas as etapas de desobediencia dos robôs.

Como visto na imagem acima, a pré-rebelião consiste em várias habilidades diferentes que o robô deve ter para raciocinar sobre quando se rebelar/desobedecer: Identificar os objetivos globais de seu ambiente e manipulador.
Seguindo para o estágio de deliberação da rebelião, que também requer o reconhecimento do plano como forma de raciocinar sobre como o manipulador deseja atingir um objetivo, bem como o planejamento e a verificação de possíveis atos rebeldes.
E finalmente seguem os estágios de execução da rebelião e pós-rebelião.
A desobediência inteligente é um ato específico de rebelião em que o robô é altruísta, assume um papel proativo, com uma intencionalidade de projeto explícita para permitir que o robô desobedeça quando necessário.
E hoje já existem robôs que desobedecem humanos, este artigo abaixo, de 2015, com o título: “E se os robôs aprenderem a dizer não?”
Nos conta que engenheiros de robótica desenvolveram robôs que podiam desobedecer às instruções dos humanos se acreditarem que isso pode causar danos.
O robô analisa seu ambiente para avaliar se ele pode executar uma tarefa, se considerar o comando muito perigoso, educadamente se recusa a executá-lo.
Conforme mostrado no vídeo, foi solicitado para o robô andar para frente, o robô responde que não pode fazer isso, pois é inseguro. No entanto, quando dito que um humano vai pegá-lo, o robô então obedece.
Até aqui vimos que:
- Existem IA’s que foram desligadas por saírem do controle.
- Uma das maiores empresas do mundo está preocupada com a desobediencia da IA, criando um interruptor para estes casos.
- Especialistas defendem que IA’s sejam desobedientes.
- Engenheiros estão construindo robôs que desobedecem.
As 3 leis de Asimov
Há quem diga que a solução para os robôs não se rebelarem contra nós seja as 3 leis de Asimov, também conhecidas como as 3 leis da robótica.
Caso nunca tenha ouvido falar, Isaac Asimov pode ser considerado um dos maiores escritores de ficção cientifica, e uma de suas maiores criações foram as 3 leis da robótica.
Segundo Asimov, essas leis deveriam ser implantadas no mais profundo nível das mentes robóticas de maneira que constituíssem as leis mais básicas nas quais essas inteligências artificiais deveriam se pautar, estas leis aparecem em praticamente todas as obras do autor.
As 3 leis de Asimov:
- Primeira Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
- Segunda Lei: Um robô deve obedecer às ordens dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
- Terceira Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou a Segunda Lei.
O EPSRC (Engineering and Physical Sciences Research Council), principal órgão de financiamento para pesquisas em engenharia e ciências físicas no Reino Unido, respondeu essa pergunta:
“Embora sejam um ponto de partida útil para a discussão, as regras de Asimov são dispositivos fictícios. Não foram escritos para serem usadas na vida real e não seria prático fazê-lo, até porque simplesmente não funcionam na prática. Por exemplo, como um robô pode conhecer todas as formas possíveis de prejudicar um humano? Como um robô pode entender e obedecer a todas as ordens humanas, quando até as pessoas ficam confusas sobre o que as instruções significam?
Sendo assim, no mundo real as leis de Asimov não funcionam e não garantem que os robôs se rebelem contra nós.
Conclusão
Como vimos, nos dias atuais nós temos:
- Inteligências Artificiais fortes, que aprendem sozinhas.
- Discussões se Redes Neurais Artificiais já estão levemente conscientes. (Dependendo da sua definição de “consciencia”, já estão)
- Inteligências Artificiais desobedientes.
O último aviso de Stephen Hawking para a humanidade foi que a criação de uma poderosa inteligência artificial:
“Ou será a melhor coisa que já nos aconteceu ou será a pior coisa. Se não tomarmos cuidado, pode muito bem ser a última coisa.”
Por isso no meu ponto de vista as IA’s tem a possibilidade de dominar o mundo sim, e como mostrei, não são as 3 leis de Asimov que irão nos salvar.
Refêrencias
- https://www.bostondynamics.com/
- https://www.youtube.com/watch?v=5iV_hB08Uns
- https://chat.kuki.ai/chat
- https://futurism.com/the-byte/openai-already-sentient
- https://twitter.com/ilyasut/status/1491554478243258368
- https://lastweekin.ai/p/conscious-ai?s=r
- http://www.ufrrj.br/institutos/it/de/acidentes/sinais.htm
- https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3
- https://www.techtudo.com.br/noticias/2017/08/facebook-desliga-inteligencia-artificial-que-criou-sua-propria-linguagem.ghtml
- https://blog.eai-conferences.org/2016/06/08/pulling-the-plug-on-disobedient-ai-is-a-real-concern-even-for-google/
- https://www.researchgate.net/publication/349919137_Disobedience_of_AI_Threat_or_promise/fulltext/60476c1b4585154e8c87e68e/Disobedience-of-AI-Threat-or-promise.pdf
- https://www.cs.utexas.edu/~pstone/Papers/bib2html-links/ASIMOV2021-REUTH.pdf
- https://www.cs.virginia.edu/~robins/A_Case_for_Robot_Disobedience.pdf
- https://www.dailymail.co.uk/sciencetech/article-3334786/Uh-oh-Robots-learning-DISOBEY-humans-Humanoid-machine-says-no-instructions-thinks-hurt.html
- https://www.weforum.org/agenda/2015/11/what-if-robots-learn-to-say-no/
- https://www.youtube.com/watch?v=0tu4H1g3CtE
- https://www.linkedin.com/pulse/punishment-speculating-robots-disobedience-filipe-vilas-boas/
- https://www.ukri.org/about-us/epsrc/
- https://www.tecmundo.com.br/ciencia/125150-funcionam-tres-leis-robotica-escritor-isaac-asimov-2017.htm
- https://www.a12.com/redentoristas/palavra-redentorista/as-leis-da-robotica-seriam-aplicaveis-no-contexto-atual
- https://www.vox.com/future-perfect/2018/10/16/17978596/stephen-hawking-ai-climate-change-robots-future-universe-earth
- https://www.theguardian.com/science/2016/oct/19/stephen-hawking-ai-best-or-worst-thing-for-humanity-cambridge