정보/신문 스크랩

[2023.03.30 REUTERS] Elon Musk and others urge AI pause, citing 'risks to society' 기사 리뷰

순제로 2023. 4. 1. 10:52
728x90

1. 기사 선정 이유

AI의 발전을 통해 현재 삶에서 얻는 이점이 많다 느끼는데, AI 전문가들은 왜 개발을 멈춰야 한다 주장하고, 그 근거가 무엇인지 궁금해서 선정하게 되었다.

현재 일상 생활에서 가장 밀접한 AI로 Chat gpt가 가장 먼저 생각이 난다.

Chat gpt를 사용하면서 검색 뿐만 아니라 공부를 하는데 있어서 많은 도움을 받고 있다.

예를 들어 정보를 얻기 위해 검색을 하면 여러 고려사항과 과정이 있었다.

1. 키워드의 조합을 고려 2. 정보의 추출 3. 추출된 정보의 신뢰성 검토 4. 추출된 정보의 정리 5. 추가 정보 검색 6. 요약

이러한 과정은 시간이 오래걸릴 뿐만 아니라, 내가 명확히 검색할 수 있는 부분에 대해서만 검색할 수 있다는 한계점이 있었다.

하지만, Chat gpt를 활용한 검색 방법에서 어렴풋이 알고있는 몇가지 키워드와 추가적인 대화를 통해 원하는 정보의 대부분혹은 그 이상을 얻을 수 있었다. 이러한 Chat gpt를 통해 시간도 절약될 뿐만 아니라, 내가 알고싶은 정보에 대해 더 구체적으로 알 수 있어서 좋았다.

AI의 발전을 통해 더 많은 장점들이 다가올 것이라 느껴지는데, 왜 전문가들은 개발을 멈춰야 하는 것일까? 라는 궁금증이 생겼다.

 

 

2. 헤드라인 & 요약

일론 머스크 등, '사회에 대한 위험' 언급하며 AI 중단 촉구
엘론 머스크와 AI 전문가 그룹은 사회에 대한 잠재적 위험을 이유로 OpenAI의 GPT-4보다 더 강력한 시스템 개발을 6개월간 중단할 것을 촉구했습니다. 그들은 개발자들에게 거버넌스에 대해 정책 입안자들과 협력하고 진행하기 전에 독립적인 전문가들과 공유 안전 프로토콜을 개발할 것을 촉구했습니다. 이 서한에는 머스크를 포함해 1000명 이상이 서명했지만 서명자 중에는 오픈AI CEO가 없었습니다.

인공지능 기술의 발전이 사회에 미치는 위험성을 우려하며 OpenAI가 출시한 GPT-4보다 더 강력한 인공지능 시스템 개발을 6개월간 중단할 것을 요구하고 있다는 내용입니다. 이는 인공지능의 발전이 과도한 속도로 진행되어 인간의 생명과 안전에 직접적인 위협을 가할 수 있는 상황을 방지하기 위함입니다. 이와 같은 요구는 인공지능 기술의 개발과 적용에 대한 윤리적, 법적인 문제를 다시한번 집고 넘어갈 필요성을 강조하고 있습니다.

3. 본문

4 minute readMarch 30, 20236:08 AM GMT+9

Elon Musk and others urge AI pause, citing 'risks to society

March 29 (Reuters) - Elon Musk and a group of artificial intelligence experts and industry executives are calling for a six-month pause in developing systems more powerful than OpenAI's newly launched GPT-4, in an open letter citing potential risks to society.
Earlier this month, Microsoft-backed OpenAI unveiled the fourth iteration of its GPT (Generative Pre-trained Transformer) AI program, which has wowed users by engaging them in human-like conversation, composing songs and summarising lengthy documents.

"Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable," said the letter issued by the Future of Life Institute.

The non-profit is primarily funded by the Musk Foundation, as well as London-based group Founders Pledge, and Silicon Valley Community Foundation, according to the European Union's transparency register.
"AI stresses me out," Musk said earlier this month. He is one of the co-founders of industry leader OpenAI and his carmaker Tesla (TSLA.O) uses AI for an autopilot system.

Musk, who has expressed frustration over regulators critical of efforts to regulate the autopilot system, has sought a regulatory authority to ensure that development of AI serves the public interest.
"It is ... deeply hypocritical for Elon Musk to sign on given how hard Tesla has fought against accountability for the defective AI in its self-driving cars," said James Grimmelmann, a professor of digital and information law at Cornell University.
"A pause is a good idea, but the letter is vague and doesn't take the regulatory problems seriously."
Tesla last month had to recall more than 362,000 U.S. vehicles to update software after U.S. regulators said the driver assistance system could cause crashes, prompting Musk to tweet that the word "recall" for an over-the-air software update is "anachronistic and just flat wrong!"

'OUTNUMBER, OUTSMART, OBSOLETE'

OpenAI didn't immediately respond to a request for comment on the open letter, which urged a pause on advanced AI development until shared safety protocols were developed independent experts and called on developers to work with policymakers on governance.
"Should we let machines flood our information channels with propaganda and untruth? ... Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?" the letter asked, saying "such decisions must not be delegated to unelected tech leaders."

The letter was signed by more than 1,000 people including Musk. Sam Altman, chief executive at OpenAI, was not among those who signed the letter. Sundar Pichai and Satya Nadella, CEOs of Alphabet and Microsoft, were not among those who signed either.
Co-signatories included Stability AI CEO Emad Mostaque, researchers at Alphabet-owned DeepMind, and AI heavyweights Yoshua Bengio, often referred to as one of the "godfathers of AI", and Stuart Russell, a pioneer of research in the field.
The concerns come as ChatGPT attracts U.S. lawmakers' attention with questions about its impact on national security and education. EU police force Europol warned on Monday about the potential misuse of the system in phishing attempts, disinformation and cybercrime.
Meanwhile, the UK government unveiled proposals for an "adaptable" regulatory framework around AI.

AI RACE

"The letter isn't perfect, but the spirit is right: we need to slow down until we better understand the ramifications," said Gary Marcus, a professor at New York University who signed the letter.
"The big players are becoming increasingly secretive about what they are doing, which makes it hard for society to defend against whatever harms may materialize."
Since its release last year, OpenAI's ChatGPT has prompted rivals to accelerate developing similar large language models and companies including Alphabet Inc (GOOGL.O) are racing to steep their products in AI.
Investors, wary of relying on a single company, are embracing competitors to OpenAI.
Microsoft declined to comment on the letter and Alphabet did not respond to calls and emails for a comment.
"A lot of the power to develop these systems has been constantly in the hands of few companies that have the resources to do it," said Suresh Venkatasubramanian, a professor at Brown University and former assistant director in the White House Office of Science and Technology Policy.
"That's how these models are, they're hard to build and they're hard to democratize."

Reporting by Jyoti Narayan in Bengaluru, Krystal Hu in New York, Martin Coulter in London, and Supantha Mukhurjee in Stockholm; Additional reporting by Aditya Soni and Jeffrey Dastin; Writing by Sayantani Ghosh; Editing by Gerry Doyle, Elaine Hardcastle and Deepa Babington
Our Standards: The Thomson Reuters Trust Principles.

기사 링크: https://www.reuters.com/technology/musk-experts-urge-pause-training-ai-systems-that-can-outperform-gpt-4-2023-03-29/

 

Elon Musk and others urge AI pause, citing 'risks to society'

Elon Musk and a group of artificial intelligence experts and industry executives are calling for a six-month pause in developing systems more powerful than OpenAI's newly launched GPT-4, in an open letter.

www.reuters.com

 

4. 기사 이해하기

1. GPT 이해하기

버전 출시일 특징 업그레이드
GPT-2 2019년 이전 언어 모델들과는 달리 1.5억 개의 파라미터를 가진 대규모 모델
텍스트 생성, 문장 완성, 번역 등 다양한 자연어 태스크를 수행
 
GPT-3 2020년 6월 1.75조 개의 파라미터를 가진 엄청난 규모의 모델
대부분의 태스크를 수행할 수 있으며, 맥락에 따라 의미 있는 텍스트를 생성할 수 있다.
더 많은 파라미터를 가지고 있어 이전 모델들보다 더 많은 양의 데이터를 처리할 수 있다.
제로샷 학습(zero-shot learning) 기능이 추가되었다.
제로샷 학습 기능은 이전 모델들과는 달리 새로운 태스크를 수행하기 위해 추가적인 학습이 필요하지 않다.


GPT-3.5 2021년 9월    
GPT-4 유료 결제
(단순 검색으로는 없다고 나온다
왜?)
개발 중단 GPT-3보다 더 큰 규모의 모델이 될 것으로 예상
맥락 이해 및 추론 기능


2. 본문 핵심 내용 이해하기

"Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable,"
"강력한 인공지능 시스템은 그들의 효과가 긍정적이고 그들의 위험을 관리할 수 있을 것이라는 확신이 있어야만 개발되어야 합니다,"
인공지능 시스템이 개발되기 전에는 그 효과와 위험을 충분히 분석하고 예측하고, 개발된 후에도 이러한 효과와 위험을 관리할 수 있는 시스템이 갖추어져야 한다. 인공지능이 적절하게 사용되지 않으면 사회적, 경제적, 환경적인 위험이 발생할 수 있기 때문이다.

따라서 인공지능 분야에서는 다양한 평가지표를 사용하여 효과와 위험을 정량적으로 평가한다.

평가 결과를 기반으로 인공지능 기술의 개발과 사용에 대한 적절한 대책을 수립해야 한다.

- AI Index 2022년 AI Index 보고서

(매년 발간되는 AI Index 보고서에서는 인공지능 분야의 다양한 지표들을 분석하고 제시하고 있습니다.)

PDF 링크: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf

종류 이미지 분류 자연어 처리 공정성, 안정성 평가
평가지표 Top-1, Top-5 BLEU(Bilingual Evaluation Understudy),
ROUGE(Recall-Oriented Understudy for Gisting Evaluation)
Fairness, Accountability, Transparency, Ethics(FATE)
분류 긍정적 영향 부정적 영향 위험관리 방법
경제 및 기업 매출 증가, 생산성 향상, 비용절감 등 졍제적 이익 창출 취업의 불안정성, 불공정한 분 배 등 사회적 문제 발생 가능성 인공지능 기술의 활용에 대한 윤리적 원칙 수립과 관련 법적 규제 강화
교육 개인 맞춤형 학습, 학생 성취도 향상, 교사 역량 강화 등 교육의 질 향 개인정보 유출, 인종차별 등 교육의 품질 저하 및 사회적 문제 발생 가능성 개인정보 보호 강화 및 교육에 대한 불공정한 접근 방지를 위한 규제 강화
보건 및 의료 질병 예측, 진단 및 치로 기술 개발, 의료 서비스 효율성 향상 등 의료분야의 진보 개인정보 유출, 인종차별 등 의료분야 품질 저하 및 사회적 문제 발생 가능성 개인정보  보호 강화 및 의료에 대한 불공정한 접근 방지를 위한 규제 강화
군사 군사 작전 효율성 향상, 군인 안정성 보장 등 군사분야의 진보 군사용 인공지능의 악용 가능성, 인권 침해 등 군사분야의 문제 발생 가능성 인공지능 기술의 사용에 대한 규제 강화 및 윤리적 원칙 수립
환경 에너지 절약 및 환경 친화적인 기술 개발, 기후 변화 대응 등 환경 보호에 기여 자원 고갈, 대기오염 등 환경 오염 발생 가능  

 

5. 추가조사

- AI 악용 사례

사례 내용
딥페이크 인공지능 기술을 이용하여 얼굴, 음성, 텍스트 등을 조작하여 조작된 콘텐츠를 만들어내는 것을 말합니다. 딥페이크는 사기, 명예훼손, 선거 조작 등에 악용될 수 있습니다.
자동화 무기 인공지능 기술을 이용하여 무인 항공기나 로봇 무기 등을 개발하는 것입니다. 이러한 무기는 인간의 개입 없이 자동으로 타격 결정을 내리는 경우가 많은데, 이러한 결정이 사람의 도덕적 판단과 다를 수 있기 때문에 문제가 될 수 있습니다.
개인 정보 유출 대규모 데이터 처리 능력을 갖고 있는 인공지능 기술을 이용하여 개인정보를 탈취하거나 분석하여 이를 악용할 수 있습니다.
사이버 범죄 인공지능 기술을 이용하여 특정 취약점을 이용한 해킹, 사기, 악성 코드 등을 개발할 수 있습니다.
불투명성과 편향 인공지능 기술이 만들어내는 결정 과정이 불투명하고 편향성을 띨 수 있다는 문제점이 있습니다. 이러한 결정 과정이 불투명하거나 편향성을 띄게 되면 공정성 문제가 발생할 수 있습니다.

 

 

- 기사가 작성된 3월 30일 Sam Altman의 트윗

좋은 AGI 미래를 위해 우리에게 필요한 것:

 

1) 초지능을 정렬할 수 있는 기술적 능력

2) 대부분의 주요 AGI 노력 간의 충분한 조정

3) 민주적 거버넌스를 포함한 효과적인 글로벌 규제 프레임워크

 

- 기사가 작성된 3월 30일 Elon Musk의 트윗

위 트윗 내용에 대해 Chat gpt에서 해석을 요청했다.

- 기사가 작성되기 이전인 3월 15일 Elon Musk의 트윗

- AI로 인해 발생하는 다양한 문제 중 Porn 관련된 문제를 말하는 것 같으며, 이와 관련된 위험관리 방법의 필요성을 말하는 것으로 보인다.

 

- 3월 18일 Elon Musk의 트윗

이와 같이 AI가 가져올 수 있는 부정적인 영향에 대해 꾸준히 트윗을 업로드 중이다.

 

 

6. 결론

Open AI (Chat GPT) CEO인 Samuel Harris Altman( 서명하지 않음) 과 Elon Musk(서명함) 둘 다 인공지능 규제와 관련된 기사와 함께 트윗이 올라왔다.

 

이 둘의 공통적인 내용은 앞으로 인공지능 기술의 개발로인해 발생하는  위험성에 대해 충분히 인식을 말하고 있으며, 인공지능 사용에 대한 적절한 대책을 수립해야 한다.는 공통적인 의견을 보이고 있다.

 

 

728x90