- Get link
- X
- Other Apps
Films and television series such as Blade Runner, People, and Wild West World, where we are shown high-tech robots with no rights, can not disturb people with a conscience. After all, they not only show our extremely aggressive attitude towards robots, they actually ashamed us as a species. We all used to think that we are better than those characters that we see on the screen, and when the time comes, we will draw the right conclusions and behave with reasonable machines with great respect and dignity.
With each step of progress in robotics and the development of artificial intelligence, we are approaching the day when the machines will correspond to the human capabilities in each individual aspect - intelligence, consciousness and emotions. When this happens, we have to decide - in front of us is the subject of the level of the refrigerator or personality. And whether we should give them equivalent human rights, freedoms and protection.
This question is very extensive, and it will not be possible to figure it out right away even with all the desire. He will have to be considered and solved immediately from the most diverse points of view - ethics, sociology, law, neurobiology, and the theory of AI. But for some reason already now it does not seem at all that all these parties will come to a common, agreeing to all conclusion.
Why bother with rights at all?
Firstly, we must admit that we are already leaning toward morality when we see robots that are very similar to us. The more intellectually developed and “alive” cars will look, the more we will want to believe that they are like us, even if it is not so.
Once the machines receive basic human capabilities, whether we like it or not, we will have to look at them as socially equal, and not just as a thing, as someone’s private property. The complexity will be in our understanding of cognitive features or features, if you will, taking into account which it will be possible to evaluate the essence before us from the standpoint of morality and, therefore, to consider the issue of social rights of this essence. Philosophers and ethicists have been fighting this problem for more than one thousand years.
“There are three of the most important ethical thresholds: the ability to experience pain and empathy, self-awareness and the ability to look at things from a moral point of view and make appropriate decisions,” says sociologist, futurist, and head of the Institute of Ethics and New Technologies James Hughes.
“In people, if they are lucky, all these three unconditionally important aspects develop sequentially and gradually. And what to do if, from the point of view of machine intelligence, it will be considered that a robot that does not possess self-awareness, does not experience joy or pain, also has the right to be called a citizen? We need to find out if this will really happen. ”
It is important to understand that intelligence, sensuality (the ability to perceive and feel things), consciousness and self-awareness (self-awareness as opposed to the other) are completely different things. Machines or algorithms may be as smart (if not smarter) as humans, but at the same time devoid of these three important components. Calculators, Siri, stock market algorithms - they are all certainly smart, but they are not able to realize themselves, they are not able to feel, to express emotions, to feel colors, to taste popcorn.
According to Hughes, self-awareness can be manifested along with empowering the entity with minimal personal rights, such as the right to be free, not a slave, the right to one’s own interests in life, the right to growth and self-improvement. When acquiring self-awareness and moral principles (the ability to distinguish "what is good and what is bad" according to the moral principles of modern society), this entity should be given full human rights: the right to make agreements, the right to own property, to vote, and so on.
“The main values of the Enlightenment oblige us to consider these features from the perspective of equality of all before all, and to abandon the radically conservative views that were generally accepted before and gave rights, say, only to people of certain social, gender or territorial affiliation,” says Hughes.
Obviously, our civilization has not yet achieved high social goals, since we still cannot understand our own rights and are still trying to expand them.
Who is entitled to be called "personality"?
All people are individuals, but not all individuals are people. Linda MacDonald-Schlenn, Bioethics Specialist at the University of California-Monterey Bay, and Alden Martha’s Institute for Bioethics Institute at Albany Medical Center, say that the law already has precedents when non-human actors are considered subjects of law. And this, in her opinion, is a very great achievement, since we thereby create the ground for opening the possibility of endowing the AI with future rights of its own, equivalent to human rights.
“In the USA, all corporations have the status of a legal entity. In other countries, there are also precedents in which they are trying to recognize the interconnection and equality of all life on this planet. For example, in New Zealand, at the legislative level, all animals are considered rational beings, and the government is actively calling for the development of codes of welfare and ethical behavior. The Indian High Court called the Ganges and Yamuna Rivers "living things" and endowed them with the status of separate legal entities. "
In addition, in the United States, as in a number of other countries, the subject of extended rights to protect against imprisonment, experimentation, and cruel treatment are certain animal species, including primates, elephants, whales, and dolphins. But unlike the first two cases, where corporations and rivers want to be treated as individuals, the issue with animals does not seem to be an attempt to subdue the legal norms. Proponents of these proposals advocate the support of a real person, that is, an individual who can be characterized on the basis of his particular cognitive (mental) abilities, such as self-consciousness.
MacDonald-Glenn says that in such matters it is important to abandon the conservative view and stop considering, whether it be animals or AI, simple soulless creatures and machines. Emotions are not a luxury, a bioethics expert believes, but an integral part of rational thinking and norms of social behavior. It is these characteristics, and not the ability to count numbers, should play a decisive role in deciding whether “who” or “what” should have the right to moral evaluation.
In science, there is increasing evidence of emotional predisposition in animals. Observation of dolphins and whales shows that they are capable of at least showing sadness, and the presence of spindle cells (interneurons connecting interconnected neurons and participating in complex processes that activate social behavior) may indicate that they can empathize. Scientists also describe the manifestation of various emotional actions in great apes and elephants. It is quite possible that a conscious AI can also acquire these emotional abilities, which, of course, will significantly enhance their moral status.
“Restricting the spread of moral status only to those who think rationally may work with the AI, but at the same time, this idea moves in opposition to moral intuition. After all, our society already protects those who are not able to think rationally: newborns, people who are in a comatose state, people with significant physical and mental problems. Lately, animal welfare laws are being actively promoted, ”says McDonald-Glenn.
As for the question of who should be given moral status, MacDonald-Glenn agrees with the 18th century English philosopher Jeremiah Bentham, who once said:
“The question is not whether they can reason? Or can they talk? But is it capable of suffering? ”
Can a car gain self-awareness?
Of course, not everyone agrees that human rights also extend to non-people, even if these subjects are able to exercise such abilities as emotions or self-reflective behavior. Some thinkers say that only people should be given the right to participate in social relations and the whole world revolves directly around Homo sapiens, and everything else — your game console, refrigerator, dog, or android interlocutor — is “everything else.”
Lawyer, American writer, and senior staff of the Institutional Center for Human Exclusivity Wesley J. Smith believes that we ourselves have not yet received universal human rights, and it’s all the more premature to think about shiny pieces of metal and their rights.
“No machine should ever be considered even as a potential carrier of any rights,” says Smith.
“Even the most advanced cars still remain and will always remain cars. It is not a living thing. This is not a living organism. A machine will always be just a set of programs, a set of code, whether it was created by a person or another computer, or even independently programmed. ”
In his opinion, only people and human resources should be considered as individuals.
“We have obligations to animals that suffer unfairly, but they too should never be considered as 'someone,'” notes Smith.
Here you should make a small remark and remind the Russian-speaking reader that in the West animals are considered as inanimate objects. Therefore, it is often possible to meet the pronoun “it” (that is, “it”), and not “she” or “he” (that is, “she” or “he”) when it comes to this or that animal. This rule is usually ignored only in relation to pets - dogs, cats and even parrots - in which households see full-fledged and full members of their families. However, Smith points out that the concept of an animal as “reasonable private property” is already a valuable identifier, since “it imposes on us the responsibility to use it in such a way as not to cause it suffering. In the end, “kick the dog” and “kick the refrigerator” are two big differences. ”
A clearly controversial point in Smith’s analysis is the assumption that humans or biological organisms have certain “features” that a machine can never acquire. In previous eras, these omitted features have become the soul, spirit, or some kind of intangible supernatural life force. The theory of vitalism postulates that processes in biological organisms depend on this force and cannot be explained in terms of physics, chemistry or biochemistry. However, it quickly lost its relevance under the pressure of practitioners and logicians who are not accustomed to associate the work of our brain with certain supernatural forces. Yet the view that a machine can never think and feel like people do is still firmly fixed in the mind, even among scientists, which only once again reflects the fact that understanding the biological basis of self-awareness in people far from ideal and very limited.
Lori Marino, a senior lecturer in neuroscience and behavioral biology (ethology) at the Emory Center for Ethics, says that the machines will most likely never get any rights, let alone human rights. The reason for this is the findings of such neuroscientists as Antonio Damasio, who believes that consciousness will be determined only by whether the subject has a nervous system with channels that transmit excited ions, or, as Marino herself says, positively charged ions passing through the cell membranes inside nervous system.
“This type of neural transmission occurs even in the simplest living organisms - prostitutes and bacteria. And this is the same mechanism that initiated the development of neurons, then the nervous system, and then the brain, ”says Marino.
“If we talk about robots and AI, then at least their current generation obeys the movement of negatively charged ions. That is, we are talking about two completely different mechanisms of being. ”
If you follow this logic, Marino wants to say that even a jellyfish will have more feelings than any other most complex robot in history.
“I don’t know whether this hypothesis is true or not, but it’s definitely a matter to consider,” says Marino.
“In addition, curiosity simply plays in me, aspiring to find out what exactly a“ living organism ”can differ from a really complex machine. But still, I believe that legal protection should first of all be provided to animals, and only then the probability of its provision for objects, which, of course, robots are, from my point of view, should be considered. ”
David Chalmers, director of the Center for the Study of the Mind, Brain and Consciousness at New York University, says that it is very difficult to draw accurate conclusions around this whole theory. Mainly due to the fact that in the current state all these ideas are not yet widely distributed, and therefore go far beyond the scope of evidence.
“At the moment there is no reason to believe that a particular kind of information processing in ion channels should determine the presence or absence of consciousness. Even if this type of processing was significant, we would have no reason to believe that this requires some special biology, and not some kind of general information processing pattern known to us. And if so, then in this case, the simulation of the processing of information by a computer could be considered as consciousness. ”
Another scientist who believes that consciousness is not a computational process is Stuart Hameroff, a professor of anesthesiology and psychology at the University of Arizona. In his opinion, consciousness is a fundamental phenomenon of the Universe and is inherent in all living and non-living beings. But at the same time, human consciousness far exceeds the consciousness of animals, plants and non-living objects. Hameroff is a supporter of the theory of panpsychism, which considers the general animate nature. So, following his thoughts, the only brain that is predisposed to real subjective assessment and self-analysis is that which consists of biological matter.
The idea of Hameroff sounds interesting, but it also lies outside the generally accepted scientific opinion. It is true that we still do not know how consciousness and self-consciousness appears in our brain. We only know that this is so. Therefore, is it possible to consider it as a process subject to the general rules of physics? Maybe. According to Marino, consciousness cannot be reproduced in the stream of “zeros” and “ones”, but this does not mean that we cannot move away from the generally accepted paradigm known as von Neumann architecture and create a hybrid AI system in which artificial consciousness will be created with the participation of biological components.
Biopod from the movie "Existence"
Ed Boyden, a neuroscientist at the Synthetic Neurobiology Group and a senior teacher at the MIT Media Lab, says that we are still too young to ask such questions.
“I don’t think we have a functional definition of consciousness that can be directly used to measure it or to create it artificially,” says Boyden.
“From a technical point of view, you can't even tell if I have a consciousness. Thus, at the moment it is very difficult to even guess whether the machines will be able to find it. ”
Boyden still does not believe that we can never recreate consciousness in an alternative shell (for example, in a computer), however, he admits that at the present time there are disagreements among scientists on what will be important for creating such an emulation of the digital mind.
“We need to do a lot more work to understand what exactly is the key link,” says Boyden.
Chalmers, in turn, recalls that we have not even figured out how consciousness awakens in the living brain, so what can we say about cars. At the same time, he believes that we have no reason to believe that biological machines can have consciousness, whereas synthetic ones cannot.
“As soon as we understand how consciousness originates in the brain, we can understand how many machines will be able to possess this consciousness,” Chalmers comments.
Ben Herzel, the head of the Hanson Robotics company and founder of the OpenCog Foundation, says that we already have interesting theories and models of the manifestation of consciousness in the brain, but none of them comes to a common denominator and does not reveal all the details.
“This is still an open question, the answer to which so far lies only in a few different opinions. The problem is also related to the fact that many scientists adhere to different philosophical approaches describing consciousness, even though they agree with scientific facts and theories based on scientific observations of the brain and computers. ”
How can we determine the consciousness of the car?
Появление сознания у машины – это лишь один вопрос. Не менее сложным является вопрос о том, как именно мы сможем обнаружить сознание у робота или ИИ. Такие ученые, как Алан Тьюринг, изучали эту проблему не один десяток лет, в конечном итоге придя к языковым тестам для определения наличия сознания у респондента. Ах, если бы все было так просто. Суть в том, что продвинутые чат-боты (программы для общения с людьми) уже способны обводить вокруг пальца людей, которые начинают считать, что перед ними находится живой человек, а не машина. Другими словами, нам необходим более эффективный и убедительный способ проверки.
«Определение индивидуальности в машинном интеллекте усложняется проблемой «философского зомби». Другими словами, можно создать машину, которая будет очень и очень хороша в имитации человеческого общения, но в то же время не будет обладать собственной самоидентификацией и сознанием», — говорит Хьюз.
Две «умные» колонки Google Home ведут светскую беседу
Недавно мы стали свидетелями отличного примера этому, когда пара «умных» колонок Google Home вела между собой общение. Все это снималось на видео и транслировалось в прямом эфире. Несмотря на то, что уровень самоосознания обоих колонок был не выше кирпича, сама природа разговора, которая со временем становилась все напряженнее, напоминала общение двух человекоподобных существ. А это, в свою очередь, лишний раз доказывает, что вопрос отличия человека и ИИ со временем будет становиться только сложнее и острее.
Одним из решений, по мнению Хьюза, является не просто проверка поведения ИИ-систем в таких испытаниях, как тест Тьюринга, но и анализ всей внутренней сложности этой системы, как это предлагает теория Джулио Тонони. В этой теории сознание понимается под интегрированной информацией (Ф). Последняя, в свою очередь, определяется как количество информации, создаваемой комплексом элементов, которая больше суммы информаций, создаваемых отдельными элементами. Если теория Тонони верна, то мы можем использовать Ф не только для определения человекоподобного поведения у системы, мы также сможем выяснить, достаточно ли она сложна, чтобы иметь собственный внутренний человекоподобный осознанный опыт. В то же время в теории указывается, что даже при ином, не похожем на человеческое поведении, как и ином образе мышления, система может рассматриваться как сознательная, если комплекс ее интегрированной информации будет способен пройти нужные проверки.
«Принятие того, что и у систем фондовой биржи и компьютеризированных систем безопасности может быть сознание, станет большим шагом в сторону от антропоцентризма, даже если эти системы не проявляют боли и самосознания. Это по-настоящему откроет для нас дорогу к формированию и обсуждению вопросов постчеловеческих этических норм».
Еще одним возможным решением может стать открытие нейронных коррелятов сознания у машин. То есть речь идет об определении тех частей машины, которые отвечают за формирование сознания. Если у машины будут иметься такие части и вести они себя будут именно таким образом, как ожидается, то в таком случае мы действительно сможем оценивать уровень сознания.
Какие права мы должны дать машинам?
Однажды робот взглянет в лицо человеку и потребует человеческих прав. Но будет ли он их заслуживать? Как уже говорилось выше, перед нами в этот момент может находиться обычный «зомби», ведущий себя так, как был запрограммирован, и пытающийся обмануть нас для того, чтобы получить некоторые привилегии. В этот момент нам нужно быть крайней осторожными, чтобы не попасться на уловку и не наделить правами бессознательную машину. Как только мы выясним, как измерять разум машины, и научимся оценивать уровни ее сознания и самосознания, только тогда можно будет начать говорить о возможности рассмотрения вопроса о том, заслуживает ли стоящий перед нами агент определенных прав и защиты или не заслуживает.
К счастью для нас, этот момент настанет еще не скоро. Для начала разработчикам ИИ необходимо создать «базовый цифровой мозг», завершив эмуляцию работы нервной системы червей, жуков, мышей, кроликов и так далее. Эти компьютерные эмуляции смогут существовать и в виде цифровых аватаров, и как роботы в реальном мире. Как только это произойдет, эти разумные сущности перестанут быть обычными объектами исследования и повысят свой статус до субъектов, имеющих право на моральную оценку. Но это совсем не означает, что эти простые эмуляции будут автоматически заслуживать эквивалент человеческих прав. Скорее закону придется встать на их защиту от недобросовестного использования и жестокости (по тем же принципам, согласно которым правозащитники защищают животных от жестокого обращения в лабораторных экспериментах).
В конечном итоге либо благодаря реальному моделированию до мельчайших деталей, либо за счет желания выяснить, как наш мозг работает с вычислительной, алгоритмической точки зрения, но наука придет к созданию компьютерных эмуляций человеческого мозга. К этому моменту мы уже должны будем уметь определять наличие сознания у машин. По крайней мере хочется на это надеяться. Даже думать не хочется, что мы сможем найти способ пробудить в машине искру сознания, но при этом сами не будем понимать, что сделали. Это будет настоящим кошмаром.
Как только роботы и ИИ получат эти базовые способности, нашим компьютеризированным протеже придется пройти тесты на индивидуальность. Универсального «рецепта» сознания у нас по-прежнему нет, однако обычный набор измерений, как правило, связан с оценкой минимального уровня интеллекта, самообладания, ощущения прошлого и будущего, сопереживания, а также способности проявления свободной воли.
«Если ваш выбор предопределен за вас, то вы не можете приписать моральную ценность решениям, не являющимся вашими собственными», — комментирует Макдональд-Гленн.
Только достигнув такого уровня сложности оценки, машина будет вправе стать кандидатом на получение человеческих прав. Тем не менее важно понять и принять тот факт, что в случае прохождения тестов роботам и ИИ потребуются хотя бы базовые права на защиту. Например, канадский ученый и футурист Джордж Дворски считает, что роботы и ИИ будут заслуживать следующий набор прав в том случае, если смогут пройти тест на индивидуальность:
- Право на неотключение против своей воли;
- Право на неограниченный и полноценный доступ к своему собственному цифровому коду;
- Право на защиту своего цифрового кода от внешнего воздействия против своей воли;
- Право на копирование (или не копирование) себя;
- Право на неприкосновенность личной жизни (а именно право скрывать свое текущее психологическое состояние).
В некоторых случаях может быть так, что машина не сможет самостоятельно заявить о своих правах, поэтому необходимо предусмотреть возможность, когда люди (а также другие граждане не люди) смогут выступать в качестве представителя таких кандидатов в индивиды. Важно понять, что робот или ИИ не должен быть интеллектуально и морально совершенен для того, чтобы получить возможность пройти оценку личности и заявить об эквиваленте человеческих прав. Важно помнить, что в этих аспектах люди тоже далеки от идеала, поэтому такие же правила справедливо будет применять и в отношении разумных машин. Интеллект вообще сложная штука. Человеческое поведения зачастую очень спонтанно, непредсказуемо, хаотично, непоследовательно и иррационально. Наш мозг далек от идеала, поэтому мы обязаны это учитывать при принятии решений в отношении ИИ.
В то же время машина, обладающая самосознанием, как и любой ответственный и законопослушный гражданин, должна уважать законы, нормы и правила, предписанные обществом. По крайней мере если она действительно хочет стать полноценной автономной личностью и частью этого общества. Взять, например, детей или психически недееспособных людей. Они имеют права? Безусловно. Но мы несем ответственность за их действия. Так же должно быть с роботами и ИИ. В зависимости от их возможностей они должны либо отвечать сами за себя, либо иметь опекуна, который сможет не только выступать в качестве защитника их прав, но и возлагать на себя ответственность за их действия.
Если проигнорировать этот вопрос
Как только наши машины достигнут определенного уровня сложности, мы больше не сможем игнорировать их с позиции общества, институтов власти и закона. У нас не будет веских причин отказать им в человеческих правах. В противном случае это будет равносильно дискриминации и рабству.
Создание четкой границы между биологическими существами и машинами будет выглядеть как явное выражение человеческого превосходства и идеологического шовинизма – биологические люди особенные, и только биологический разум имеет значение.
«Если рассматривать наше желание или нежелание расширения границ нашей морали и квинтэссенции понятия индивидуальности, то важный вопрос будет звучать так: какими людьми мы хотим быть? Будем ли мы и в этом вопросе следовать «золотому правилу» (поступай с остальными так, как ты бы хотел, чтобы поступали с тобой) или же проигнорируем свои же моральные ценности?», — задается вопросом Макдональд-Гленн.
Наделение правами ИИ станет важным прецедентом в истории всего человечества. Если мы сможем рассматривать ИИ как социально равных нам индивидов, то это станет прямым отражением нашей социальной сплоченности и свидетельством нашей поддержки чувства справедливости. Наша неудача в решении этого вопроса может обернуться всеобщим социальным протестом и, возможно, даже противостоянием между ИИ и человеком. А учитывая превосходящий потенциал машинного интеллекта, для последних это может обернуться настоящей катастрофой.
Важно также осознать, что уважение прав роботов в будущем также может послужить благом и для других индивидов: киборгов, трансгенных людей с инородной ДНК, а также людей с копированным, оцифрованным и загруженным в суперкомпьютеры мозгом.
Мы еще очень далеки от создания машины, которая будет заслуживать человеческих прав. Однако если учесть, насколько сложным является этот вопрос и что именно будет стоять на кону – как для искусственного интеллекта, так и для людей, – вряд ли можно сказать, что планирование наперед будет являться излишним.
The article is based on materials
- Get link
- X
- Other Apps
Comments
Post a Comment