AI ‘godfather’ quits Google over dangers of Artificial Intelligence
인공지능의 위험성에 대한 검토로 구글을 떠난 AI의 대부
The man widely seen as the Godfather of artificial intelligence has quit his job at Google warning of the dangers of AI. Dr Jeffrey hinton’s pioneering research on deep learning and neural networks has paved the way for current AI systems like chat GPT but in a lengthy interview with the New York Times Dr Hinton said he now regretted his work and is worried that AI technology will flood the internet with misinformation Google responded in a statement saying we remain committed to a responsible approach to AI Dr Hinton has been telling the BBC how these systems can know so much the kind of intelligence we’re developing is very different from the intelligence
인공지능의 대아버지로 폭넓게 인식되는 인물이, 인공지능의 위험성을 경고하며 구글에서의 직장을 그만두었습니다. 제프리 힌튼 박사의 심층학습과 신경망 연구는 챗GPT와 같은 현재의 AI 시스템을 가능하게 만들어 왔지만, 힌튼 박사는 뉴욕 타임지와의 인터뷰에서 그의 연구를 후회하며 AI 기술이 인터넷에 허위 정보를 쏟아질 것을 우려한다는 발언을 했습니다. 구글은 “우리는 AI에 대한 책임있는 접근을 계속 추구할 것”이라는 발표로 대응했습니다. 힌튼 박사는 이러한 시스템이 얼마나 많은 것을 알 수 있는지, 우리가 개발하고 있는 지능의 종류가 매우 다르다는 것을 BBC에 전했습니다.
We have we're biological systems and these are digital systems and the big difference is that with digital systems you have many copies of the same set of Weights the same model of the world and all these copies can learn separately but share their knowledge instantly so it's as if you had 10 000 people and whenever one person learns something everybody automatically knew it and that's how these chats can know so much more than any one person well Dr Hinton also told the BBC the rate of progress is worrying right now what we're seeing is um things like gbt4 eclipses a person in the amount of general knowledge
우리는 생물학적 시스템이고, 이들은 디지털 시스템과 큰 차이가 있습니다. 디지털 시스템에서는 동일한 가중치 세트, 즉 동일한 세계 모델의 많은 사본이 있습니다. 이러한 모든 사본은 따로 배울 수 있지만, 그들의 지식을 즉각적으로 공유할 수 있습니다. 따라서 1만 명의 사람이 있는 것처럼, 한 사람이 무언가를 배우면 모든 사람이 자동으로 알게 됩니다. 그래서 이러한 채팅 시스템이 어떤 개인보다 더 많은 지식을 알고 있는 것입니다. 힌튼 박사는 또한 BBC에게 “진행 속도가 걱정된다”며 “지금 우리가 보고 있는 것은 GPT-4와 같은 것이 개인의 일반 지식 양에서 압도적이다”라고 말했습니다.
It has and eclipses and by a long way um in terms of reasoning it's not as good but it does already do simple reasoning and given the rate of progress we expect things to get better quite fast so we need to worry about that right now they're not more intelligent than us as far as I can tell um but I think they soon may be well earlier I spoke to Junaid mabine author of mathematical intelligence
GPT-4은 이미 많은 부분에서 우리를 능가하고 있습니다. 추론 능력 측면에서는 그렇게 뛰어나지는 않지만 이미 간단한 추론을 수행할 수 있습니다. 그리고 진행 속도를 고려하면 미래에는 더욱 발전될 것으로 예상됩니다. 그러므로 우리는 지금 이 문제에 대해 걱정해야 합니다. 지금으로서는 그들이 우리보다 더 똑똑한 것 같지는 않습니다. 하지만 곧 그렇게 될 것 같습니다. 이전에 수학적 지능의 저자인 준아이드 마비네 씨와 이야기를 나눴는데...
I asked what he makes of the AI warning I think this one is to be taken seriously because of where it's coming from um I wouldn't take Elon musk's uh own warnings particularly seriously because he's not an AI expert Jeffrey Hinton on the other hand is one of the pioneers of artificial intelligence and he's also been very specific in laying out a hierarchy of risks and concerns and so he mentions uh the threats that AI posed to uh to the workforce and to the spread of misinformation um but the concerns that he's raised around existential risk
저는 그가 발표한 AI 경고를 매우 신중하게 받아들여야 한다고 생각합니다. 그 이유는 그가 인공지능 분야의 선구자 중 한 명이기 때문입니다. 그는 위험과 우려의 계층을 구체적으로 제시하면서 AI가 노동력과 정보의 보급에 미치는 위협뿐만 아니라 존재적 위험에 대한 우려도 언급하고 있습니다. 반면 일론 머스크의 경고는 그가 AI 전문가가 아니기 때문에 특별히 신경 쓰지는 않습니다.
I think are to be taken seriously and I think it's important to recognize that those risks are not premised on AI becoming conscious or gaining sentience we're not talking about a a Terminator Doom date scenario but it's the idea that these Technologies are able to amass information and process information so effectively that if you put them in the hands of bad human actors they can wreak all kinds of havoc and I think that is some we all need to pay attention to so tell us a bit more about that because he referred didn't he to Bad actors who would use AI for bad things so tell us a bit more about what you think he means by that so
저는 그의 우려가 매우 심각하다고 생각하며, 이러한 위험은 인공지능이 의식을 갖거나 감성을 얻는 것과는 무관합니다. 우리는 터미네이터나 멸망의 날 같은 시나리오를 말하는 것이 아니라, 이러한 기술이 정보를 수집하고 처리하는 능력이 너무도 뛰어나기 때문에 나쁜 인간 주체의 손에 들어가면 모든 종류의 혼란을 야기할 수 있다는 것입니다. 그것은 우리 모두가 주의 깊게 살펴봐야 할 문제입니다. 따라서 그가 말한 나쁜 행위 주체들이 인공지능을 악용할 것이라는 것은 굉장히 중요합니다. 이에 대해 제 생각을 좀 더 자세히 알려드리겠습니다.
I think one of the challenges with these chat Bots is we don't fundamentally understand how they work we know that they absorb large amounts of uh information and then you can input a prompt and and it will it will give you an output it might write an essay for you it might generate an image or a video and so um the the challenges that as these systems become more complex we can issue them with certain tasks so I might um ask a chatbot to go online and find the cheapest train ticket uh for me
이 챗봇들의 문제점 중 하나는 그들이 어떻게 작동하는지 근본적으로 이해하지 못한다는 것입니다. 우리는 그들이 많은 양의 정보를 흡수하고, 프롬프트를 입력하면 출력을 제공하며, 에세이를 작성하거나 이미지나 동영상을 생성할 수 있다는 것을 알고 있습니다. 하지만 이러한 시스템들이 더 복잡해짐에 따라 특정 작업을 시키는 것은 도전적입니다. 예를 들어, 저는 챗봇에게 저를 위해 가장 싼 기차표를 찾아 온라인에서 구매하도록 요청할 수 있습니다.
And I might give it access to my bank account and it will uh be able to carry out that task um and and the states there seem fairly low but you can imagine in a different context where the stakes are a lot higher these systems might be weaponized to carry out a whole range of tasks and they will execute those tests in ways that we don't fully understand
그리고 나는 그것에 내 은행 계좌에 대한 액세스를 제공하고 그 작업을 수행할 수 있을 것입니다. 그리고 그 상태는 상당히 낮아 보이지만 다른 맥락에서는 상황이 매우 높아질 수 있으며 이러한 시스템들은 다양한 작업을 수행하는 무기화된 대상이 될 수 있습니다. 그리고 그들은 우리가 완전히 이해하지 못하는 방식으로 그 작업을 수행할 것입니다.
And I think the concern that people at Jeffrey intern have is that there could be unintended consequences these systems behave in ways that are very different to humans so there's no real account for how they will go about achieving their objectives and especially if those objectives are rooted in some kind of malicious intent so if an authoritarian leader for example says through a chatbot system you know help me to reassert my uh grip on on on a population there's no rule knowing how a very complex uh computer-based system would go about achieving that what kinds of manipulations it might imply and so the lack of transparency is something that we really need to be concerned about a couple of months ago more than a thousand Tech leaders um called for a six-month moratorium on the development of new AI systems because of what they said was the tech proposing a profound risk to society and Humanity I mean is it too late
제프리 인턴의 사람들이 가지는 우려는 이러한 시스템들이 인간과는 매우 다른 방식으로 작동하기 때문에 의도치 않은 결과가 발생할 수 있다는 것입니다. 그래서 그들이 목적을 달성하는 방식과 특히나 그 목적이 악의적인 의도에 근거한다면, 그 시스템이 어떻게 작동할지 알 방법이 없습니다. 예를 들어 독재자가 챗봇 시스템을 통해 '인구 집단을 제어하도록 도와주세요'라고 말한다면, 매우 복잡한 컴퓨터 기반 시스템이 그 목적을 달성하는 방법이나 어떤 조작을 시도할지 알 수 없습니다. 따라서 투명성 부족은 우리가 실제로 염려해야 할 문제입니다. 몇 달 전에 천 개 이상의 기술 지도자들이 새로운 AI 시스템 개발에 대한 6개월 유예 기간을 요청하면서 기술이 사회와 인류에 깊은 위험을 제안한다고 경고했습니다. 그렇다면 이제는 이미 너무 늦은 걸까요?
It may well be um I think we have to adopt some Spirit of optimism and and recognize that we do have a huge degree of human intelligence as well and now more than ever we need to summon that and one thing that Jeffrey Hinton does emphasize is that digital intelligence the kind espoused by these track bars is very different to human intelligence and that may present an opportunity for us to tap into our own human strengths and understand how we can uh behave and cooperate with one another in in ways that might allow us to regulate these Technologies and Reign them in but I will say Jeffrey Hinton has been working on these Technologies for several decades
아마도 그럴 수도 있습니다. 우리는 낙천적인 마음으로 일부 정신을 차려야 하며, 우리는 매우 큰 인간적 지성을 가지고 있다는 것을 인식하고 이를 활용해야 한다는 것을 깨달아야 합니다. 이제 더 이상 우리는 이것을 불러내야 할 때입니다. 제프리 힌튼은 디지털 인공지능, 즉 이러한 챗봇들이 주장하는 종류의 지능이 인간의 지능과 매우 다르다는 것을 강조하며, 이는 우리가 자신의 인간적 강점을 활용하고 이러한 기술을 규제하고 제어하는 방법을 이해하는 기회를 제공할 수 있다고 말합니다. 그러나 제프리 힌튼은 이러한 기술에 몇십 년간 작업해왔다는 것을 말해드립니다.
There are many within the space that have been issuing These Warnings for several years so his own warning does seem to uh becoming quite late in the day and there is a sense that maybe the gene is out at the bottle now and there's no real accounting for what happens next
그 분야 안에서는 수년간이나 이러한 경고를 내놓아온 사람들이 많습니다. 그래서 그의 경고가 지금에 와서야 나온 것 같아 조금 늦은 감이 있으며, 이제는 이미 대안이 없어진 것 같다는 생각도 있습니다.
'영어공부' 카테고리의 다른 글
I have a dream (0) | 2023.05.10 |
---|---|
A Whole New World (0) | 2023.05.09 |
I See The Light(Rapunzel) (0) | 2023.05.07 |
O Church Arise (0) | 2023.05.06 |
Julie Andrews' interview (0) | 2023.05.05 |