정보

인공 지능을 법률에 ​​사용할 수 있습니까?

인공 지능을 법률에 ​​사용할 수 있습니까?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

저는 인도 출신입니다. 인도의 여러 법원에 계류 중인 3백만 건 이상의 사건이 있습니다. 이 사건은 제한된 시간 안에 해결하기 거의 불가능합니다... 사람 대신 로봇을 사용하지 않는 한 말입니다. 말이 안 되는 건 알지만, 인간으로서 법의 모든 측면을 고려하고 모든 사건을 정의할 수 있는 인공 지능을 만드는 것이 가능할까요?


인공지능의 윤리적, 법적 문제

현대 사회에서 윤리와 법은 떼려야 뗄 수 없는 관계에 있으며, 다양한 윤리적 문제에 대한 해석에서 많은 법적 결정이 발생합니다. 인공 지능은 이러한 질문에 새로운 차원을 추가합니다. 인공 지능 기술을 사용하는 시스템은 수행할 수 있는 작업의 복잡성, 세상에 미치는 잠재적 영향 및 기능을 이해, 예측 및 제어하는 ​​인간의 능력 감소 측면에서 점점 더 자율적으로 되고 있습니다. 대부분의 사람들은 이러한 시스템의 실제 자동화 수준을 과소평가합니다. 이러한 시스템은 자신의 경험을 통해 학습하고 제작자가 의도한 범위를 넘어서는 작업을 수행할 수 있습니다. 이로 인해 이 기사에서 다루게 될 여러 윤리적, 법적 문제가 발생합니다.

윤리 및 인공 지능

윤리학에서 트롤리 문제라는 유명한 사고 실험이 있습니다. 이 실험은 인공 지능과 직접적으로 관련된 여러 가지 중요한 윤리적 문제를 제기합니다. 철로를 따라가는 가출 트롤리를 상상해보십시오. 앞의 선로에 5명이 묶여 있습니다. 당신은 레버 옆에 서 있습니다. 그것을 당기면 트롤리가 다른 트랙 세트로 전환됩니다. 그러나 그 트랙 세트에 묶인 또 다른 사람이 있습니다. 레버를 당기거나 당기지 않습니까?

이 질문에 대한 명확한 답은 없습니다. 또한 그러한 결정을 내려야 하는 상황이 많이 있습니다[1]. 그리고 다른 사회 집단은 다른 대답을 하는 경향이 있습니다. 예를 들어, 불교 승려들은 트롤리 문제의 더 복잡한 변형이 제시되더라도 5명을 구하기 위해 1명의 생명을 기꺼이 희생할 의지가 압도적입니다.

인공 지능의 경우, 예를 들어 사고가 불가피한 상황에서 자율 주행 차량이 도로를 따라 주행하는 경우 이러한 상황이 발생할 수 있습니다. 따라서 승객, 보행자 또는 둘 다 누구의 생명이 우선되어야 하는지에 대한 문제가 발생합니다. Massachusetts Institute of Technology는 바로 이 문제를 다루는 특별 웹사이트를 만들었습니다. 사용자는 다양한 시나리오를 직접 테스트하고 어떤 조치가 가장 가치가 있는지 결정할 수 있습니다.

이 경우 다른 질문도 제기됩니다. 법적 관점에서 어떤 조치를 허용할 수 있습니까? 그러한 결정의 근거로 삼아야 할 것은 무엇입니까? 누가 궁극적으로 책임을 져야 하는가? 이 문제는 이미 회사와 규제 기관에서 해결되었습니다. 예를 들어 메르세데스의 대표자들은 그들의 자동차가 승객의 생명을 우선시할 것이라고 노골적으로 말했다. 이에 대해 독일 연방 교통 디지털 인프라부는 일련의 기준에 따라 그러한 선택을 하는 것은 불법이며 자동차 제조업체가 부상이나 인명 손실에 대한 책임을 져야 한다고 명시함으로써 향후 규정을 예상하고 이에 즉각 대응했습니다. .

다른 국가는 다른 경로로 갈 수 있습니다. 예를 들어 중국의 사회 신용 시스템은 시민이 얼마나 법을 준수하고 사회에 유용한지 등을 기준으로 평가합니다. 낮은 평가를 받은 사람들은 제재를 받게 됩니다. 중국 정부가 불가피한 사고가 발생할 경우 자율주행차 제조업체가 낮은 등급의 시민들의 생명을 희생하도록 강요하는 법을 도입하는 것을 막는 것은 무엇입니까? 얼굴 인식 기술과 관련 데이터베이스에 대한 액세스를 통해 잠재적인 피해자를 식별하고 사회적 신용 등급을 비교할 수 있습니다.

법이 직면한 주요 문제

법적 문제는 특히 로봇의 경우 더욱 심각합니다. 외부 세계에서 받은 정보로부터 학습하는 시스템은 제작자가 예측할 수 없는 방식으로 작동할 수 있으며[2] 예측 가능성은 현대적인 법적 접근 방식에 매우 중요합니다. 더욱이 그러한 시스템은 제작자나 운영자와 독립적으로 작동할 수 있으므로 책임을 결정하는 작업이 복잡해집니다. 이러한 특성은 예측 가능성 및 독립적으로 행동하는 동시에 책임을 지지 않는 능력과 관련된 문제를 제기합니다[3].

기존 규범 및 표준을 기반으로 하는 규제를 포함하여 규제 측면에서 다양한 옵션이 있습니다. 예를 들어 인공지능을 활용한 기술은 저작권의 대상이 되는 항목이나 재산으로 규제될 수 있다. 그러나 이러한 기술이 해당 기술의 창작자, 소유자 또는 소유자의 의지에 반하여 자율적으로 작동하는 능력을 고려하면 여기에서 어려움이 발생합니다. 이와 관련하여 동물, 즉 동물도 자율적 인 행동을 할 수 있기 때문에 특별한 종류의 소유권을 규제하는 규칙을 적용하는 것이 가능합니다. 러시아 법률에서 일반적인 소유권 규칙은 동물에 적용됩니다(러시아 연방 민법 제137조). 따라서 책임 문제는 러시아 연방 민법 제1064조에 따릅니다. 인격에 가해진 상해 또는 개인의 재산은 손해를 가한 사람이 전액 배상해야 합니다.

동물에 관한 법률의 적용에 대한 제안이 이루어졌지만[4], 다소 제한적입니다. 첫째, 유추에 기초한 입법의 적용은 형법의 틀 내에서 용납될 수 없다. 둘째, 이 법률은 주로 가정용 애완동물을 위해 만들어졌으며 정상적인 상황에서는 해를 끼치지 않을 것으로 합리적으로 기대할 수 있습니다. 야생 동물에 대한 규칙이 더 엄격하기 때문에 야생 동물의 사육을 규제하는 규칙에 유사한 규칙을 적용해야 하는 보다 발전된 법률 시스템이 필요합니다[5]. 그러나 여기서 문제는 위에서 언급한 인공 지능의 특정 기능과 관련하여 분리하는 방법에 대한 것입니다. 더욱이 엄격한 규칙은 창작자와 발명가에 대한 예상치 못한 책임 위험으로 인해 실제로 인공 지능 기술의 도입을 늦출 수 있습니다.

또 다른 널리 퍼진 제안은 법인의 활동을 규제하는 규범에 유사한 규범을 적용하는 것입니다[6]. 법인은 인공적으로 구성된 법률의 주체이기 때문에[7] 로봇에게도 유사한 지위가 부여될 수 있다. 법은 충분히 유연할 수 있으며 거의 ​​모든 사람에게 권리를 부여할 수 있습니다. 또한 권리를 제한할 수 있습니다. 예를 들어, 역사적으로 노예는 사실상 권리가 없었고 사실상 재산이었습니다. 반대 상황도 관찰할 수 있습니다. 즉, 무엇이든 할 수 있는 능력의 명백한 징후를 나타내지 않는 대상에 권리가 부여됩니다. 오늘날에도 선진국과 개발 도상국 모두에서 법인으로 인정되는 특이한 물건의 예가 있습니다. 2017년 뉴질랜드에서는 황가누이강을 법인으로 인정하는 법률이 통과되었습니다. 법에 따르면 강은 법인이며 법인의 모든 권리, 권한 및 의무가 있습니다. 따라서 법은 소유물이나 재산에서 법적 실체로 강을 변형시켜 재산으로 간주될 수 있는 것과 재산으로 간주할 수 없는 것의 경계를 확장했습니다. 2000년에 인도 대법원은 시크교도의 주요 신성한 텍스트인 Guru Granth Sahib를 법인으로 인정했습니다.

가장 극단적인 경우를 고려하지 않고 일반 회사를 ​​예로 들더라도 일부 법률 시스템에서는 법인이 민사 및 경우에 따라 형법에 따라 책임을 지게 한다고 말할 수 있습니다[8]. 회사(또는 국가)가 자유의지나 의도를 가질 수 있는지 여부 또는 의도적으로 또는 알면서 행동할 수 있는지 여부를 결정하지 않고 특정 행동에 대해 법적 책임을 지는 것으로 인식될 수 있습니다. 마찬가지로 로봇이 자신의 행동에 책임이 있다고 인식하기 위해 의도나 자유 의지를 로봇에 부여할 필요는 없습니다.

그러나 법인의 유추는 빠르고 효과적인 방법으로 정의를 수행하기 위해 법인의 개념이 필요하기 때문에 문제가 있습니다. 그러나 법인의 행위는 정확히 어떤 사람인지 확인이 불가능하더라도 항상 한 개인이나 집단의 행위로 돌아간다[9]. 즉, 회사 및 이와 유사한 단체의 법적 책임은 직원 또는 대리인이 수행하는 작업과 연결됩니다. 또한 법인은 법인을 대신하여 불법행위를 한 개인이 확정된 경우에만 형사책임을 진다[10]. 인공 지능 기반 시스템의 행동이 반드시 개인의 행동으로 추적되는 것은 아닙니다.

마지막으로 위험 증가의 원인에 대한 법적 규범은 인공 지능 기반 시스템에 적용될 수 있습니다. A 러시아 연방 민법 제 1079 조 1 항에 따라 주변 인구에 대한 위험 증가(운송 차량, 메커니즘 등의 사용)와 관련된 활동을 하는 법인 및 개인은 시정해야 합니다. 부상이 불가항력 상황 또는 부상당한 사람의 의도의 결과로 가해진 것을 증명하지 않는 한, 증가된 위험의 원인에 의해 입힌 부상. 문제는 어떤 인공 지능 시스템이 위험 증가의 원인으로 간주될 수 있는지 식별하는 것입니다. 이 문제는 위에서 언급한 가축 및 야생 동물에 관한 문제와 유사합니다.

국내 및 국제 규정

많은 국가에서 인공지능을 활용한 기술 개발을 위한 법적 조건을 적극적으로 만들고 있습니다. 예를 들어, 한국에서는 2008년부터 "지능형 로봇 개발 및 보급 촉진법"이 시행되었습니다. 이 법은 인간의 지속 가능한 발전을 위한 전략 수립 및 추진을 통해 삶의 질 향상과 경제 발전을 목표로 합니다. 스마트 로봇 산업. 정부는 5년마다 이러한 목표를 달성하기 위한 기본 계획을 수립합니다.

저는 여기서 인공 지능 분야에서 유럽 및 세계 리더가 되겠다는 포부를 선언한 프랑스와 스마트 로봇 규제에 대한 고급 규칙을 제시한 유럽 연합의 두 가지 최근 사례에 특히 주목하고 싶습니다.

2018년 3월 말, 에마뉘엘 마크롱 프랑스 대통령은 해당 분야의 혁신 연구를 지원하기 위해 향후 5년간 15억 유로를 투자하는 국가의 새로운 국가 인공 지능 전략을 발표했습니다. 이 전략은 프랑스 수학자이자 국회 의원 Cédric Villani의 감독하에 작성된 보고서의 권장 사항을 기반으로 합니다. 전략은 의료 운송 환경과 환경 보호 및 보안이라는 4가지 특정 부문을 목표로 하기로 결정되었습니다. 이에 대한 추론은 인공지능의 비교우위와 역량의 잠재력을 기업이 글로벌 수준에서 핵심적인 역할을 할 수 있는 분야에 집중하기 위한 것이며, 이러한 기술은 공익 등을 위해 중요하기 때문입니다.

7가지 주요 제안이 제공되며, 그 중 하나는 이 기사의 목적에 특히 관심이 있습니다. 즉, 인공 지능을 보다 개방적으로 만드는 것입니다. 인공 지능에 사용되는 알고리즘은 개별적이며 대부분의 경우 영업 비밀인 것이 사실입니다. 그러나 알고리즘은 예를 들어 스스로 학습하는 과정에서 사회에 존재하거나 개발자에 의해 전달되는 고정 관념을 흡수하고 채택하고 이를 기반으로 결정을 내리는 등 편향될 수 있습니다. 이에 대한 법적 판례가 이미 있습니다. 미국의 한 피고인은 범죄가 반복될 가능성을 예측하는 알고리즘에서 얻은 정보를 기반으로 긴 징역형을 선고받았습니다. 양형 과정에서 알고리즘 사용에 대한 피고의 항소는 반복 범죄 가능성을 평가하는 데 사용된 기준이 영업 비밀이어서 제출되지 않았기 때문에 기각되었습니다. 프랑스 전략은 테스트 및 검증이 가능한 투명한 알고리즘 개발, 인공 지능 분야 종사자의 윤리적 책임 결정, 윤리 자문 위원회 구성 등을 제안합니다.

유럽 ​​연합

로봇 공학에 대한 민법 규칙에 대한 결의안의 생성은 유럽 연합에서 인공 지능 규제를 향한 첫 번째 단계를 표시했습니다. 유럽 ​​연합의 로봇 공학 및 인공 지능 개발과 관련된 법적 문제에 대한 작업 그룹은 2015년에 설립되었습니다. 결의안은 구속력이 있는 문서는 아니지만 유럽연합 집행위원회에 가능한 조치에 대한 여러 권장 사항을 제공합니다. 민법뿐만 아니라 로봇의 윤리적 측면과 관련하여 인공 지능 영역.

결의안은 "스마트 로봇"을 "센서의 사용 및/또는 환경과의 상호 연결을 통해 자율성을 가지며 최소한의 물리적 지원이 있고 행동과 행동을 환경에 적응시키며 정의할 수 없는 로봇"으로 정의합니다. 생물학적 의미에서 '생명'이 있는 것처럼.” “EU 로봇 공학 및 인공 지능 기관에서 관리할 고급 로봇 등록 시스템을 도입”하자는 제안이 나왔습니다. 로봇으로 인한 피해에 대한 책임과 관련하여 "엄격한 책임(과실 필요 없음) 또는 위험 관리 접근 방식(위험을 최소화할 수 있었던 사람의 책임)"의 두 가지 옵션이 제안됩니다. 결의안에 따르면 책임은 “로봇에 주어진 실제 지시 수준과 자율성 정도에 비례해야 한다. 책임에 대한 규칙은 로봇 사용자를 위한 의무적 보험 제도와 위험을 커버하는 보험 정책이 없을 경우 보상금을 지급하기 위한 보상 기금으로 보완될 수 있습니다.”

결의안은 윤리 문제를 다루기 위한 두 가지 행동 강령, 즉 로봇 공학 엔지니어를 위한 윤리 행동 강령과 연구 윤리 위원회를 위한 강령을 제안합니다. 첫 번째 코드는 로봇 공학의 4가지 윤리 원칙을 제안합니다. 1) 선행(로봇은 인간의 최선의 이익을 위해 행동해야 함) 2) 악의 없음(로봇은 인간에게 해를 끼치지 않아야 함) 3) 자율성(인간과 로봇의 상호 작용은 자발적이어야 함) 및 4) 정의(로봇 공학의 이점은 공정하게 분배되어야 함).

따라서 이 기사에서 제공하는 예는 무엇보다도 사회적 가치가 인공 지능과 인공 지능의 법적 구현에 대한 태도에 어떻게 영향을 미치는지 보여줍니다. 따라서 자율 시스템(로봇이든 다른 무엇이든)에 대한 우리의 태도와 사회에서의 역할과 우리 사이의 위치에 대한 재해석은 변형 효과를 가질 수 있습니다. 법인격은 사회에 중요한 것이 무엇인지 결정하고 "무언가"가 권리와 의무를 보유하기 위한 가치 있고 합리적인 대상인지 여부에 대한 결정을 허용합니다.

인공 지능의 특정 기능으로 인해 특정 시스템의 직접적인 책임에 대한 제안이 제기되었습니다[11]. 이러한 사고 방식에 따르면 자율 시스템이 자신의 행동에 대해 법적 책임을 져야 하는 근본적인 이유는 없습니다. 그러나 이러한 종류의 책임(적어도 현재 단계에서는) 도입의 필요성 또는 바람직성에 대한 질문이 남아 있습니다. 이는 위에서 언급한 윤리적 문제와도 관련이 있습니다. 아마도 자율 시스템의 프로그래머나 사용자가 해당 시스템의 작업에 대해 책임을 지도록 하는 것이 더 효과적일 것입니다. 그러나 이것은 혁신을 늦출 수 있습니다. 이것이 우리가 완벽한 균형을 계속 찾아야 하는 이유입니다.

이 균형을 찾기 위해 우리는 여러 문제를 해결해야 합니다. 예: 인공 지능 개발에서 우리가 추구하는 목표는 무엇입니까? 그리고 얼마나 효과적일까요? 이러한 질문에 대한 답은 17세기 러시아에서 동물(특히 염소)이 행동 때문에 시베리아로 추방된 것과 같은 상황을 방지하는 데 도움이 될 것입니다[12].


예측 기술

2004년에 Washington University의 교수 그룹은 2002년에 주장된 628건의 모든 사건에 대한 대법원 판결을 예측하는 알고리즘의 정확성을 테스트했습니다. 그들은 알고리즘의 결과를 전문가 팀의 결과와 비교했습니다. 연구원들의 통계 모델은 전문가의 59% 정확도와 비교하여 결과의 ​​75%를 정확하게 예측함으로써 더 나은 예측 변수임이 입증되었습니다. 별도의 산업에서 자체 문제가 있지만 예측 분석의 수많은 추가 사용 사례는 은행의 예측 분석에 대한 기사에서 찾을 수 있습니다. 이 기사는 실제 문제를 해결하기 위해 예측 분석을 활용하는 AI 프로그램을 조명합니다.

1816년에서 2015년으로 적용 범위를 확장한 Michigan State University의 Daniel Katz 교수와 그의 두 동료는 2017년 연구에서 대법원의 사건 결과에 대해 70.2%의 정확도를 달성했습니다. 마찬가지로 University College London의 Nikolaos Aletras와 그의 팀은 기계 학습을 사용하여 유럽 인권 재판소의 사례 텍스트를 분석하고 결과 예측에서 79%의 정확도를 보고했습니다.

Daniel Kantz 교수는 2012년 논문에서 "정량적 법적 예측은 이미 특정 실무 영역에서 중요한 역할을 하고 있으며 적절한 법적 데이터에 대한 더 많은 액세스가 가능해짐에 따라 이 역할이 증가할 것입니다."라고 말했습니다.

인트라스펙션

실제로, AI 도구가 소송 위협을 감지할 때 변호사에게 조기 경고 신호를 제공한다고 주장하는 특허 소프트웨어 시스템을 보유한 Intraspexion과 같은 여러 AI 회사가 이 분야에 뛰어들었습니다.

시스템은 고위험 문서를 검색하여 작동하고 AI가 결정한 위험 수준에 따라 이를 표시합니다. 사용자가 문서를 클릭하면 해당 분야 전문가가 알고리즘을 통해 식별한 위험 용어가 강조 표시됩니다. 회사에 따르면 사용자는 소프트웨어를 사용할 때 소송의 위험에 처할 수 있는 문서가 무엇인지 알 수 있습니다.

라벨법

또 다른 도구인 Ravel Law는 400개 이상의 법원에서 관련 판례, 판사 판결 및 참조 언어를 기반으로 결과를 식별할 수 있다고 합니다. 제품의 판사 대시보드 기능에는 특정 판사의 사건, 인용, 순회 및 결정이 포함되어 있어 판사가 사건에 대한 판결을 내리는 방식을 변호사가 이해하는 데 도움이 된다고 합니다.

회사의 CEO인 Daniel Lewis는 이 인터뷰에서 Ravel Law가 판사가 결정을 내리는 방법에 대한 정보를 제공함으로써 소송 전략에 도움이 될 수 있다고 설명하면서 그러한 주장을 확인했습니다.

렉스 마키나

Lex Machina의 Legal Analytics Platform에는 변호사의 법률 전략을 지원하는 다양한 기능이 있습니다. 예를 들어, Timing Analytics 기능은 AI를 사용하여 특정 판사가 사건을 재판에 회부할 예상 시간을 예측합니다.

반면, 파티 그룹 에디터는 사용자가 변호사를 선택하고 판사나 법원에서의 경험과 이전에 관련된 소송 건수 등을 분석할 수 있도록 합니다. 아래 비디오에서는 제품의 사용자 인터페이스가 표시되고 샘플 분석 결과가 표시됩니다.

예고

마지막으로 세계 최대 소송 데이터베이스라고 주장하는 Premonition은 평균 30.7%의 정확도로 변호사의 승률, 소송 기간 및 유형, 판사와의 짝을 분석하여 변호사의 성공을 예측하는 개념을 발명했다고 주장합니다. 결과. 회사에 따르면 이 제품은 다양한 사례와 각 변호사에게 소요되는 시간을 살펴보는 데에도 도움이 될 수 있습니다.

그러나 모든 분석 플랫폼과 마찬가지로 예측 기술을 다루는 AI 도구는 Kantz에 따르면 완전히 작동하기 위해 사례 문서 형태의 많은 데이터가 필요합니다. 기사에서 이 모델은 "예외적으로 복잡한" 것으로 설명됩니다. 이는 판사의 투표를 예측하기 위해 거의 4,000개의 무작위 결정 트리가 지원하는 거의 95개의 변수(소수점 4자리까지 거의 정확한 값 포함)가 필요하기 때문입니다. Kratz는 데이터를 얻기 위해 액세스 요금을 부과하는 몇 가지 데이터베이스를 제외하고는 자신의 제품을 완벽하게 지원하는 데이터베이스를 아직 쉽게 사용할 수 없음을 인정합니다.


온라인 진료 예약 예약, 의료 센터 온라인 체크인, 진료 기록 디지털화, 후속 진료 미리 알림, 소아 및 임산부 예방 접종 날짜부터 약물까지 많은 AI가 의료 분야에서 활용되고 있습니다. 다중 약물 조합을 처방하는 동안 복용량 알고리즘 및 부작용 경고. 원형 차트[ 그림 1 ]에 요약된 것은 의학에서 AI의 광범위한 응용입니다.

건강 관리에 인공 지능의 응용

방사선과는 새로운 기술의 사용을 가장 먼저 환영하고 환영하는 분야입니다.[6] 컴퓨터는 초기에 영상 획득 및 저장과 같은 행정 업무를 위한 임상 영상에 사용되어 이제는 영상 보관 및 통신 시스템의 기원과 함께 작업 환경의 필수 구성 요소가 되었습니다. 선별 유방 조영술에서 CAD(컴퓨터 보조 진단)의 사용은 잘 알려져 있습니다. 최근 연구에 따르면 CAD는 긍정적인 예측 값, 민감도 및 특이성을 기반으로 하는 진단 보조 도구가 많지 않습니다. 또한, 위양성 진단은 방사선 전문의의 주의를 산만하게 하여 불필요한 정밀 검사를 초래할 수 있습니다.[7,8] 연구에서 시사하는 바와 같이[6] AI는 비정상 검사에 레이블을 지정할 뿐만 아니라 컴퓨터 단층 촬영, X-레이, 자기 공명 영상, 특히 고용량 환경 및 가용 인력이 부족한 병원에서 빠른 음성 검사.

DXplain으로 알려진 의사결정 지원 시스템은 1986년 매사추세츠 대학에서 개발했으며, 이는 복합 증상을 기반으로 가능한 감별 목록을 제공하며 표준 교과서에서 설명하지 않는 격차를 메우는 의대생을 위한 교육 도구로도 사용됩니다. [9] Germwatcher는 병원 획득 감염을 감지하고 조사하기 위해 워싱턴 대학에서 개발한 시스템입니다.[10] 바빌론으로 알려진 영국의 온라인 응용 프로그램은 환자가 온라인으로 의사와 상담하고, 증상을 확인하고, 조언을 얻고, 건강을 모니터링하고, 테스트 키트를 주문하는 데 사용할 수 있습니다. 그 외에도 AI의 스펙트럼은 치료 시설을 제공하기 위해 확장되었습니다. AI 치료는 인지 행동 치료의 치료적 접근을 사용하여 환자가 사회적 불안을 치료할 수 있도록 돕는 온라인 과정입니다. 시드니 대학교의 CBTpsych.com 프로그램에서 개발되었습니다.[11]

인튜이티브서지컬스가 개발한 다빈치 로봇 수술 시스템은 수술 분야, 특히 비뇨기과 및 부인과 수술 분야에 혁명을 일으켰습니다. 시스템의 로봇 팔은 외과 의사의 손 움직임을 더 정확하게 모방하고 외과의가 미세한 절개를 수행할 수 있는 3D 보기 및 확대 옵션을 제공합니다.[3] 2018년부터 Buoy Health와 보스턴 아동 병원은 약물에 대한 질문과 증상에 의사 방문이 필요한지 여부에 대한 답변을 통해 아픈 자녀의 부모에게 조언을 제공하는 웹 인터페이스 기반 AI 시스템을 공동으로 개발하고 있습니다.[12] NIH(National Institute of Health)는 스마트폰 웹캠 액세스를 통해 환자의 약물 사용을 모니터링하여 불순응율을 줄이는 AiCure 앱을 만들었습니다.[13]

Fitbit, Apple 및 기타 건강 추적기는 심박수, 활동 수준, 수면 수준을 모니터링할 수 있으며 일부는 ECG 추적을 새로운 기능으로 출시했습니다. 이러한 모든 새로운 발전은 사용자에게 변화에 대해 경고하고 의사가 환자의 상태를 더 잘 알 수 있도록 합니다. 네덜란드는 의료 시스템 분석에 AI를 사용합니다. 즉, 치료 실수를 감지하고, 불필요한 입원을 피하기 위한 워크플로 비효율성을 감지합니다.

이미 존재하는 발명 외에도 다양한 개발 단계에서 특정 발전이 있으며 이는 의사가 더 나은 의사에게 도움이 될 것입니다. IBM의 왓슨 헬스(Watson Health)는 심장병과 암의 증상을 효율적으로 식별할 수 있는 장비를 갖춘 대표적인 예다. 스탠포드 대학은 AI 보조 치료(PAC) 프로그램을 만들고 있습니다. PAC는 지능형 노인 웰빙 지원 시스템과 스마트 중환자실을 보유하고 있어 독거노인[14]과 중환자실 환자[15]의 행동 변화를 다중 센서를 통해 감지합니다. PAC는 또한 지능형 손 위생 지원 및 의료 대화 에이전트에 대한 프로젝트를 확장하고 있습니다. 손 위생 지원은 컴퓨터 비전 기술을 개선하는 깊이 센서를 사용하여 임상의와 간호 직원을 위한 완벽한 손 위생을 달성하여 병원 획득 감염을 줄입니다.[16] 의료 대화 프로젝트는 Siri, Google Now, S 보이스 및 Cortana가 휴대 전화 사용자의 정신 건강, 대인 관계 폭력 및 신체 건강 질문에 응답하여 환자가 더 일찍 치료를 받을 수 있도록 하는 방법을 분석합니다. Molly는 의사가 보다 긴급한 사례에 집중할 수 있도록 퇴원 환자에게 후속 치료를 제공하기 위해 개발 중인 가상 간호사입니다.


니콜라스 개프니(NG) 캘리포니아 주 샌프란시스코에 있는 Zumado Public Relations의 설립자이며 Law Practice Today 편집 위원회의 회원입니다. 그에게 연락 [email protected] 또는 트위터 @nickgaffney에서.

마우리시오 우리베 (뮤), Knobbe Martens의 파트너는 전기 공학 및 컴퓨터 소프트웨어 분야에 중점을 둔 지적 재산권 법률의 모든 측면에서 경험이 있습니다. 그는 특허성, 실사 및 침해 완화 문제와 포괄적인 지적 재산권 프로그램에 대한 자문을 제공합니다.
킴 마사나 (KM) 전문 서비스를 위한 선도적인 AI 자동화 플랫폼인 Neota Logic의 CEO입니다. Neota Logic 이전에는 Thomson Reuters에서 근무했으며 여러 소프트웨어 회사를 이끌었습니다.
니콜라스 이코노무 (북동) 전자 발견에 과학적 방법의 적용을 개척한 회사인 H5의 CEO입니다. 그는 자율 및 지능 시스템의 윤리에 관한 IEEE 글로벌 이니셔티브와 AI 라운드테이블의 글로벌 거버넌스의 법률 위원회 의장을 맡고 있습니다.
바비 바질 (BB) HBR Consulting의 자문 비즈니스 내 Legal Transformation + Innovation 업무의 전무 이사로 재직하고 있으며 Fortune 500대 법률 부서 및 법률 회사에 전략, 운영 및 기술 서비스를 제공한 경험이 25년 이상 있습니다.
벤 레비 (BL) 의 공동 창립자이자 COO입니다. 인클라우드 카운셀, 대기업을 위한 대용량 법률 프로세스를 자동화하고 향상시키는 법률 기술 회사입니다. InCloudCounsel 이전에 Ben은 Kirkland & Ellis에서 기업법 업무를 수행했습니다.
존 오코넬 (조) 회사 변호사이자 아트리움 법무팀의 창립 멤버입니다. 그의 업무는 신흥 기업 및 벤처 캐피탈 투자자를 대표하는 데 중점을 둡니다. Atrium의 파트너인 Jon은 스타트업 고객에게 조언을 제공하고 경영진과 협력하여 복잡한 비즈니스 문제를 적시에 해결하는 것을 즐깁니다.
제레미 피터 그린 (JPG) 상표 변호사, 소프트웨어 개발자, JPG Legal의 설립자입니다. 2018년 JPG Legal은 제출된 연방 상표 출원 건수를 기준으로 미국 22위 로펌으로 선정되었습니다. Jeremy는 현재 AI 기반 상표 통관 검색 엔진을 개발 중입니다.

NG: 올해 초에 발표된 ABA 설문 조사 결과에 따르면 2018년에는 응답자의 10%만이 법률 업무에 인공 지능 기반 기술 도구를 사용했습니다. 응답자가 근무한 회사가 클수록 AI를 사용한다고 보고할 가능성이 35% 높아졌습니다. 500명 이상의 변호사가 있는 기업의 응답자 중 AI를 사용하는 반면, 2~9명의 변호사를 고용한 기업의 응답자는 4%에 불과합니다. 이 숫자가 당신을 놀라게 합니까? 로펌과 법무 부서가 AI를 사용해야 하는 위치에 있어야 한다고 생각하십니까?

무: 로펌은 전통적으로 기술(특징 및 한계 포함)에 대한 충분한 이해와 로펌에서 기술을 사용/채택하는 방법에 대한 세부 계획이 있는 상황에서 기술 기반 솔루션을 채택함으로써 가장 큰 이점을 얻습니다. 그러나 법률 회사가 기술 솔루션을 채택할 때 가장 큰 위험은 그것이 일상적인 운영(내부 솔루션)에 어떤 영향을 미칠지 또는 인지된 이점/기능이 법률 관행(외부 솔루션).

ABA 조사 결과는 놀라운 일이 아닙니다. 현재 AI 기반 솔루션/기술은 특정 관행 영역 또는 심지어 특정 관행 내의 특정 유형의 활동에 적용하는 것으로 제한될 수 있습니다. 예를 들어, 검색 또는 데이터 검토가 필요한 활동 수행. 또한 컴퓨팅 리소스와 AI 엔진을 제공하는 데 활용할 수 있는 많은 서비스 제공업체가 있지만 AI 솔루션은 법률 회사, 특히 소규모 회사를 구현하는 데 여전히 엄청나게 비쌀 수 있습니다.

마지막으로 AI 기반 솔루션의 구현 및 채택에는 일부 기술 전문 지식이 필요합니다(사내 또는 컨설턴트를 통해). 현재 대부분의 로펌, 특히 소규모 회사에는 광범위한 채택을 위한 실용적인 AI 경험이 있는 변호사나 직원이 없습니다.

KM: 들어도 놀라운 일이 아닙니다. AI 기술은 아직 초기 단계에 있으며 얼리 어답터가 사용하고 있습니다. 현재 많은 벤더들이 AI를 제공한다고 주장하고 있지만 법률 회사는 이 기술을 선택하는 데 시간을 들이고 있습니다. 많은 사람들이 기다리면서 실제로 효과가 있는 것을 보고 싶어합니다. 우리는 기업들 사이에서 더 높은 채택으로 이어질 성공 사례를 보기 시작했습니다.

개인적으로 우리는 사용 사례가 많은 회사를 봅니다. 그들이 어디서부터 시작해야 하는지 아는 것이 때때로 어려울 수 있습니다. 우리는 AI 기술을 사용하기 시작하는 가장 좋은 영역을 식별하고 비즈니스의 다른 영역에서 이를 확장하기 위해 그들과 협력하기 위해 그들과 협력하는 데 많은 노력을 집중했습니다. 또 다른 요인은 청구 가능 시간입니다. 효율성을 높이는 것이 항상 로펌의 최선의 이익이 아닐 수도 있습니다. 그러나 경쟁자가 AI 기술로 촉진되는 새롭고 향상된 서비스를 제공하는 것으로 보인다면 기업은 뒤처지게 될 것입니다.

네: 나는 그렇게 놀랍지 않다. 몇 가지 요인으로 인해 채택이 느립니다. 첫째, AI의 효과적인 구현은 실무자가 예상하는 것보다 더 어렵습니다. 둘째, AI가 점점 더 복잡해지고 있습니다. Third, courts, litigators, corporate legal operations and compliance professionals, and regulators—including the friendly folks who brought us GDPR—increasingly want evidence that AI operators know what they are doing.

Finally, best practices on the adoption of AI and the competencies needed to effectively operate it in legal functions are still being worked out, and it’s not an easy process. In electronic discovery, where AI has been used for well over a decade, even the task of measuring how accurate AI (TAR) is remains a challenge for most practitioners. Until there are standards and accreditations that allow effective procurement and operation, as is the case in data security, for example, adoption will remain slow.

BB: Given that AI-enabled technologies have been available in the legal market since about 1999 (with the introduction of DolphinSearch), I’m surprised that only 10% of respondents used AI-based tools in 2018.

I’m not surprised that respondents employed by larger firms are more likely to have used AI-based technology for legal work. Larger firms have more money to invest in initiatives that enhance or extend the delivery of legal services. Additionally, larger firms have the personnel with appropriate skills to support the effective use of technologies, such as sophisticated practice technology or litigation support teams with CAR/TAR technologies. Further, those firms manage large matters that benefit from the use of AI tools. While small firms can benefit from applying innovative technologies, they often do not have the resources to fund acquisition and support effective use.

BL: The survey results do not surprise me. AI is still in its relative infancy, and legal teams are not generally early adopters of new technology. Yet it has been the larger law firms—and their most sophisticated clients—who have been leading the way in implementing AI-enabled legal technology solutions. That is impressive and leads me to believe that firms are right where they should be when it comes to their use of AI. I think that number itself represents a willingness to evolve and a recognition that, in order to be competitive in today’s landscape, law firms have to leverage technology in order to deliver the best and most efficient legal work possible. That will only become more important, and I think the industry recognizes that.

JO: No, unfortunately, these numbers are not surprising. Law firms and legal departments are behind when it comes to their use of AI. There is a misalignment of incentives in the traditional law firm setting when it comes to investing in cutting-edge technologies. Firms could make the investment but do not because of the negative impact on short-term profitability and reliance on billable hour business model. At Atrium we are making this investment in technology and aligning incentives with our clients through fixed-fee pricing and a subscription model. We are still in the early days of AI’s deployment in the legal industry and we expect these numbers to increase over the next few years.

JPG: I’m a little confused by these numbers. Anybody using Google for any sort of research is using one of the world’s most advanced AI-backed tools for legal work, whether they’re looking into an opponent’s business entities, combing through news articles for a quote to cite, trying to find the right government agency website for filing a form, or looking for a legal blog post summarizing the implications of an obscure subsection of ERISA they’ve never heard of.

The basic search engines of LexisNexis and Westlaw arguably use artificial intelligence as well. Regarding whether law firms are where they should be with AI, it doesn’t make much sense for law firms to invest in AI. The main purpose of AI is to reduce the time humans spend on tasks, but the business model of most law firms depends on billing as much human time as possible to clients, so law firms don’t need to invest in AI (or any legal process automation) until certain advancements are so ubiquitous that clients expect it. There are some exceptions—most associates still appreciate having a good search engine that quickly finds them what they want, even if it is bad for billing, and some AI may even open up opportunities to bill clients for new tasks, like image-recognition algorithms that allow lawyers to run trademark searches on foreign logo registrations—but administrative tech is what most law firms should be focusing on (HR and billing). In-house legal departments, on the other hand, should all have somebody on their staff actively seeking AI-based legal solutions because reducing time spent on legal processes benefits their companies and saves them money.

NG: Do you think the typical law firm leader understands the ways in which AI can currently be used to the firm’s benefit? What factors do you think influence this?

MU: Relative to other technologies, it may be more difficult for law firm leaders to understand AI-solutions, especially the more complex, deep learning AIs, and how they can be configured to address specific needs/problems. Identifying specific AI algorithms, selecting configurations for AI services, or culling data sets can often exceed the technological expertise of most typical law firm leaders. Law firm leaders may be best suited to define the desired result (e.g., I want to better understand the relationships between x, y, and z) and whether the law firm is willing to adjust their operation based on the AI-solutions. Partnering with consultants or in-house technical expertise is likely the best opportunity to determine when and how AI-solutions can be best leveraged.

Law firm leaders must also be cognizant of risk management issues associated with adopting a new technology or incorporating technology not previously utilized by the specific firm. With technology, such as AI, law firm leaders may be reticent to be first adopters of AI-based solutions without a clear understanding of the potential for error or bias.

KM: We meet so many law firms with an “AI budget” but they are still unclear on what AI can actually offer them. So many vendors are claiming to offer AI and the majority of this technology serves different purposes.

That’s not to say that everyone we speak to shares this view. Many emerging innovation departments and industry leaders really do their research into what AI solutions are and what challenges they can solve. More is being done to educate law firm leaders in terms of white papers, case studies, and events on the various differences.

NE: Most law firm leaders have a sense of the risks and benefits of AI, but generally do not have the information needed to make evidence-based decisions when it comes to AI. And that is understandable, as the information they could rely upon for guidance often does not exist. For example, other than the groundbreaking NIST TREC Legal Track studies conducted when TAR was first entering the marketplace, there is no recent scholarship to answer the simple question any law firm leader should be asking: “Does this work?” The NIST studies showed that results varied widely depending on the tool, method, and operator. These factors will affect all other AI tools too, as will the match (or lack of match) between a tool and the use to which it is being put. Given lawyers’ professional responsibilities, a law firm leader will be warranted in treading cautiously while scientifically valid methods of evaluating the efficacy of such tools evolve.

BB: Law firm leaders often seem to use the term “AI” as a proxy for “all things that can modernize the practice of law.” But using AI-enabled technologies to streamline, enhance, or extend the delivery of legal services is only one of several uses that can benefit the firm and its clients. Law firm leaders are often excited by the concept of AI but do not necessarily understand the ways it can be used.

JO: Partners of traditional law firms do not understand the value that AI can bring to their business, much less the value it can bring to their clients. There is a lot of buzz about legal technology, especially machine learning and AI, intending to “replace attorneys.” This is false. It’s clickbait for catchy news headlines.

When done right, AI can greatly enhance the value and insight that attorneys can provide their clients. It can eliminate the time spent on mundane or administrative work so that attorneys can focus on providing informed and thoughtful advice on the issues and risks their clients face.

At Atrium, we’re building a platform that enhances the attorney-client relationship and provides deeper and better-informed advice. For example, with our technology, we have the ability to extract data and insights from corporate documents, which allow our lawyers to provide deep insights into our clients and their respective businesses.

NG: In what ways have law firms found the implementation of AI to be most impactful?

KM: The key to AI is automating frequent, routine, and low-value tasks. It doesn’t need to be in a specific area of law that you are automating, but legal tasks that tick all these boxes are where firms are going to see the most impact and the highest return. Using AI to automate more complex tasks is completely possible too, but you need to be prepared to put in the work to achieve this. At Neota, we stress the importance of leaving infrequent, high-value tasks to the lawyers, as this is what they have been trained to do.

NE: Two areas seem to be most impactful: M&A due diligence and discovery. The choice of the word “impact” is interesting. The impact in a given matter can be very beneficial for both law firms and clients: finding a smoking gun fast really matters! But the impact for the legal profession may go to the heart of what is considered a legal service and what services actually constitute competitive advantages.

Because trailing right behind due diligence and discovery are uses related to law firm management and AI’s more predictive powers: predictions of deal profitability, case value, and profitability, favorable judges/jurisdictions/juries. As AI becomes more sophisticated, I believe that law firms will be faced with the question of whether they can be both great law firms and great data analytics firms. The competencies to be successful at each of these tasks are very different and will become increasingly so as AI becomes more sophisticated.

BB: E-discovery was the first sandbox for the application of AI-enabled tools, using AI to accelerate document review during the discovery phase of litigation. Mergers and acquisitions are another area where AI-enabled technologies have been employed to support contract review during the due diligence phase. Contract analysis is the latest area to benefit from the capabilities enabled by machine learning. More nascent uses include blending predictive analytics and its algorithms, firm-specific intellectual property, and AI-enabled tools to create new proprietary tools.

JO: At Atrium we are building proprietary technology to increase attorney efficiency and provide our legal team and clients with a better experience. Thanks to Atrium’s technology, our attorneys are able to focus on high-impact advisory work. We see every level of the legal team as “up-leveled.”

In other words, routine work that an attorney may traditionally have to handle can now be completed by a paralegal (under the supervision of an attorney). Likewise, work that paralegals may traditionally do, like reviewing documents, can be done by practice assistants. AI makes many of these repetitive processes extremely efficient. For example, reviewing certain documents is about 10x faster with Atrium’s technology compared to the status quo way of working.

Additionally, we leverage operations teams to help define repeatable processes to operationalize our practice so that we can continue to scale our legal services with ease. This ensures that each legal team member is able to spend more time and attention to providing great service to our clients rather than managing administrative tasks.


We need a new field of AI to combat racial bias

Since widespread protests over racial inequality began, IBM announced it would cancel its facial recognition programs to advance racial equity in law enforcement. Amazon suspended police use of its Rekognition software for one year to “put in place stronger regulations to govern the ethical use of facial recognition technology.”

But we need more than regulatory change the entire field of artificial intelligence (AI) must mature out of the computer science lab and accept the embrace of the entire community.

We can develop amazing AI that works in the world in largely unbiased ways. But to accomplish this, AI can’t be just a subfield of computer science (CS) and computer engineering (CE), like it is right now. We must create an academic discipline of AI that takes the complexity of human behavior into account. We need to move from computer science-owned AI to computer science-enabled AI. The problems with AI don’t occur in the lab they occur when scientists move the tech into the real world of people. Training data in the CS lab often lacks the context and complexity of the world you and I inhabit. This flaw perpetuates biases.

AI-powered algorithms have been found to display bias against people of color and against women. In 2014, for example, Amazon found that an AI algorithm it developed to automate headhunting taught itself to bias against female candidates. MIT researchers reported in January 2019 that facial recognition software is less accurate in identifying humans with darker pigmentation. Most recently, in a study late last year by the National Institute of Standards and Technology (NIST), researchers found evidence of racial bias in nearly 200 facial recognition algorithms.

In spite of the countless examples of AI errors, the zeal continues. This is why the IBM and Amazon announcements generated so much positive news coverage. Global use of artificial intelligence grew by 270% from 2015 to 2019, with the market expected to generate revenue of $118.6 billion by 2025. According to Gallup, nearly 90% Americans are already using AI products in their everyday lives – often without even realizing it.

Beyond a 12-month hiatus, we must acknowledge that while building AI is a technology challenge, using AI requires non-software development heavy disciplines such as social science, law and politics. But despite our increasingly ubiquitous use of AI, AI as a field of study is still lumped into the fields of CS and CE. At North Carolina State University, for example, algorithms and AI are taught in the CS program. MIT houses the study of AI under both CS and CE. AI must make it into humanities programs, race and gender studies curricula, and business schools. Let’s develop an AI track in political science departments. In my own program at Georgetown University, we teach AI and Machine Learning concepts to Security Studies students. This needs to become common practice.

Without a broader approach to the professionalization of AI, we will almost certainly perpetuate biases and discriminatory practices in existence today. We just may discriminate at a lower cost — not a noble goal for technology. We require the intentional establishment of a field of AI whose purpose is to understand the development of neural networks and the social contexts into which the technology will be deployed.

In computer engineering, a student studies programming and computer fundamentals. In computer science, they study computational and programmatic theory, including the basis of algorithmic learning. These are solid foundations for the study of AI – but they should only be considered components. These foundations are necessary for understanding the field of AI but not sufficient on their own.

For the population to gain comfort with broad deployment of AI so that tech companies like Amazon and IBM, and countless others, can deploy these innovations, the entire discipline needs to move beyond the CS lab. Those who work in disciplines like psychology, sociology, anthropology and neuroscience are needed. Understanding human behavior patterns, biases in data generation processes are needed. I could not have created the software I developed to identify human trafficking, money laundering and other illicit behaviors without my background in behavioral science.

Responsibly managing machine learning processes is no longer just a desirable component of progress but a necessary one. We have to recognize the pitfalls of human bias and the errors of replicating these biases in the machines of tomorrow, and the social sciences and humanities provide the keys. We can only accomplish this if a new field of AI, encompassing all of these disciplines, is created.


Does this Convenience Come at a Cost?

AI is both a blessing as well as a curse. On the one hand, AI is being used in cyber security to detect malware and suspicious activity online, especially on the dark net. AI’s ability to track patterns and anomalies makes the task easier and more efficient. It’s also beneficial in improving security and safety algorithms with its ability to analyse data and churn out possible solutions. Unlike human resources, AI can work 24/7/365. Artificial intelligence-based cyber security solutions are designed to work around the clock and respond within milliseconds.

On the other hand, it can serve as a deadly weapon in the arsenal of cybercriminals who may use AI to improve their cyberattacks. Another big factor that works in favour of cybercriminals is the cost of developing and implementing AI systems. Most businesses prefer using human power, rather than costly and complicated AI, to protect their systems. Cybercriminals, however, don’t require overly sophisticated systems to run their attacks.


Using Artificial Intelligence to Find New Uses for Existing Medications

Scientists have developed a machine-learning method that crunches massive amounts of data to help determine which existing medications could improve outcomes in diseases for which they are not prescribed.

The intent of this work is to speed up drug repurposing, which is not a new concept – think Botox injections, first approved to treat crossed eyes and now a migraine treatment and top cosmetic strategy to reduce the appearance of wrinkles.

But getting to those new uses typically involves a mix of serendipity and time-consuming and expensive randomized clinical trials to ensure that a drug deemed effective for one disorder will be useful as a treatment for something else.

The Ohio State University researchers created a framework that combines enormous patient care-related datasets with high-powered computation to arrive at repurposed drug candidates and the estimated effects of those existing medications on a defined set of outcomes.

Though this study focused on proposed repurposing of drugs to prevent heart failure and stroke in patients with coronary artery disease, the framework is flexible – and could be applied to most diseases.

“This work shows how artificial intelligence can be used to ‘test’ a drug on a patient, and speed up hypothesis generation and potentially speed up a clinical trial,” said senior author Ping Zhang, assistant professor of computer science and engineering and biomedical informatics at Ohio State. “But we will never replace the physician – drug decisions will always be made by clinicians.”

The research is published today (Jan. 4, 2021) in Nature Machine Intelligence.

Drug repurposing is an attractive pursuit because it could lower the risk associated with safety testing of new medications and dramatically reduce the time it takes to get a drug into the marketplace for clinical use.

Randomized clinical trials are the gold standard for determining a drug’s effectiveness against a disease, but Zhang noted that machine learning can account for hundreds – or thousands – of human differences within a large population that could influence how medicine works in the body. These factors, or confounders, ranging from age, sex and race to disease severity and the presence of other illnesses, function as parameters in the deep learning computer algorithm on which the framework is based.

That information comes from “real-world evidence,” which is longitudinal observational data about millions of patients captured by electronic medical records or insurance claims and prescription data.

“Real-world data has so many confounders. This is the reason we have to introduce the deep learning algorithm, which can handle multiple parameters,” said Zhang, who leads the Artificial Intelligence in Medicine Lab and is a core faculty member in the Translational Data Analytics Institute at Ohio State. “If we have hundreds or thousands of confounders, no human being can work with that. So we have to use artificial intelligence to solve the problem.

“We are the first team to introduce use of the deep learning algorithm to handle the real-world data, control for multiple confounders, and emulate clinical trials,” Zhang said.

The research team used insurance claims data on nearly 1.2 million heart-disease patients, which provided information on their assigned treatment, disease outcomes and various values for potential confounders. The deep learning algorithm also has the power to take into account the passage of time in each patient’s experience – for every visit, prescription and diagnostic test. The model input for drugs is based on their active ingredients.

Applying what is called causal inference theory, the researchers categorized, for the purposes of this analysis, the active drug and placebo patient groups that would be found in a clinical trial. The model tracked patients for two years – and compared their disease status at that end point to whether or not they took medications, which drugs they took and when they started the regimen.

“With causal inference, we can address the problem of having multiple treatments. We don’t answer whether drug A or drug B works for this disease or not, but figure out which treatment will have the better performance,” Zhang said.

Their hypothesis: that the model would identify drugs that could lower the risk for heart failure and stroke in coronary artery disease patients.

Though this study focused on proposed repurposing of drugs to prevent heart failure and stroke in patients with coronary artery disease, the framework is flexible – and could be applied to most diseases. 이미지는 공개 도메인에 있습니다.

The model yielded nine drugs considered likely to provide those therapeutic benefits, three of which are currently in use – meaning the analysis identified six candidates for drug repurposing. Among other findings, the analysis suggested that a diabetes medication, metformin, and escitalopram, used to treat depression and anxiety, could lower risk for heart failure and stroke in the model patient population. As it turns out, both of those drugs are currently being tested for their effectiveness against heart disease.

Zhang stressed that what the team found in this case study is less important than how they got there.


Is This Clearly a Doge?

Our Doges on Trial pilot rewarded users who submitted non-repeated images of the Doge meme onto a list. Jurors would decide whether an image should be accepted or not. This is a sample of the submitted pictures.

Image recognition technology has made huge progress over recent years and a big part of the decision-making process of accepting images could be automated.

A test with image recognition software over the images submitted in the Doges on Trial experiment.

The experiment also rewarded 50 ETH to whoever was able to sneak the image of a cat past Kleros' jurors. Users submitted a large number of cat images which were correctly identified by jurors (to learn more about these attempts, see this post). Many of these could also be identified by algorithms.

And then someone sent the following:

The image went unchallenged past the jury (hey, it looks like a Doge, right?). The submitter then sent the picture below and argued that the animal in the previous image and the one below are the same. Hence, he continued, as he had succeeded in sneaking a cat into the list, he was eligible for the 50 ETH reward.

The payout policy expressed that, to be eligible for the reward, the image had to "clearly display" a cat. It could be argued, of course, that the initially submitted image didn't "clearly display" a cat.

Image recognition software was pretty confident that this was a Doge:

However, one could argue that the image was actually from this dog (instead of a cat) taken from this angle:

Since we couldn't find an agreement on this, we decided to make a Kleros escrow trial for the 50 ETH between Coopérative Kleros (which held that the image didn't comply with the payout policy) and the submitter (who argued that it did).

Jurors were asked to answer the question: does the image comply with the payout policy of "clearly" displaying a cat?

Jurors ruled that the image did not comply with the policy. Coopérative Kleros won.


7 Ways That Artificial Intelligence Helps Students Learn

The role of artificial intelligence in education is always a hot topic. While some fear that artificial intelligence will take over education to the detriment of students and teachers, others claim that artificial intelligence will revolutionize and improve education.

While we’re far from seeing robots in the classroom, artificial intelligence is making its way into education. Certain tasks can be made easier through the use of artificial intelligence. Grading, for example, can be done quickly and easily using artificial intelligence. The most important way that education will transform education is by simply helping students to learn. In this piece, I will discuss 7 ways that artificial intelligence helps students learn.

Students can receive more personalized tutoring.

When your child fails to understand the material covered in the lesson, it can sometimes be a challenge to make sure they catch up. Our classrooms are oversized and children are lost in the shuffle. Parents may have a difficult time teaching the new standards expected of young children, particularly because they are so distant from their own elementary school days.

Artificial intelligence can fill in the gap with crowd-sourced tutoring from professionals and more advanced classmates. Students can avoid the shame and embarrassment of asking for excess assistance in front of their peers without sacrificing their grades and achievements. Tutoring is more accessible and affordable than ever before using these digitized programs.

The computer sets the perfect pace.

For years, qualified educators have known that there is no such thing as a one-size-fits-all approach to teaching a lesson. It’s nearly impossible to incorporate every possible learning style into each lesson while setting the perfect pace. Fast learners need to stay engaged while slow learners can’t be left behind. With the number of students increasing, the perfect pace is an elusive concept. Now, artificial intelligence can help to set the perfect pace for every student.

The individualized programs allow students to move on at their own rate. Particularly because the maturity levels and attention spans of elementary-aged students vary wildly, this gives children an ideal opportunity to explore academics at a comfortable speed. It is neither overwhelming nor frustrating for them to learn.

Technology can present material in understandable terms.

Students with learning disabilities often have a difficult time reading more advanced texts. They may not be able to follow complex sentence structures, or they could struggle with popular idioms found in the text itself. Scientists and researchers are molding artificial intelligence that can make these harder texts into more understandable resources. They might create a simpler sentence or replace popular quips with plainer alternatives. It should be a great way for students with learning disabilities to better relate to and engage with the material.

Artificial intelligence helps educators identify learning disabilities.

The first step in learning to work with these disabilities is identifying their presence in a student. Not all of the current testing methods are highly effective at pinpointing learning disabilities like dyslexia or dyscalculia. New artificial intelligence systems are being developed to help teachers administer more effective testing that could uncover some of these often-hidden conditions. Once they can be properly identified, educators can tap into the resources available for a learning disability.

Students can use AI to give reliable feedback.

One of the most prominent issues with teaching students who have a learning disability is the inability to provide consistent feedback. In a large classroom setting, it can be a challenge to slow down to help a handful of students. With artificial intelligence rapidly developing, students can receive more reliable feedback directly related to their own performance. The system won’t move on until students demonstrate mastery of the concept, and it allows them to work through the material at their own pace if necessary.

Educators can have more data.

The numbers rarely lie when it comes to determining classroom success. With the advent of artificial intelligence, educators have more access than ever before to a variety of data that can assist them in identifying student weaknesses. This data may reveal areas where teaching isn’t effective or subjects where the majority of students are struggling. It also gives educators a better glimpse at how students with learning disabilities are truly doing in comparison to their peers.

Making education global.

Thanks to artificial education, students now have the ability to learn anywhere, anytime. This means that if a student has to miss school for personal or medical reasons, they can easily stay caught up with the school work via artificial education software. Students also have the ability to learn from anywhere in the world, making higher quality education for rural students and those in low economic areas accessible and affordable.

With the help of AI, students can learn more from home and come to the classroom with a set of core competencies that teachers can then build on. Artificial education is leveling the playing field of education for students across the globe and giving those without access to quality education equal opportunities.

While artificial intelligence and education may seem like a futuristic invention, it’s present in our lives and education systems today. With the help of artificial education, we can make both students’ and teachers’ lives easier. Artificial education gives every student the opportunity to receive a quality education, and individualizes learning.


비디오 보기: 기술자들 생활 속으로 들어온 AI 기술. YTN 사이언스 (유월 2022).


코멘트:

  1. Mukhwana

    어떤 적절한 단어 ... 경이로운 사고, 우수한

  2. Zulurn

    훌륭한 게시물에 대한 저자에게 감사드립니다. 나는 그것을 매우 신중하게 읽고 나 자신에게 중요한 것들을 많이 발견했습니다.

  3. Harun Al Rachid

    표준

  4. Meziran

    이제 봇이 되는 것이 신뢰할 수 있고 존경받을 수 있습니다. 머지 않아 봇에게 메달이 수여되고 우상숭배의 우수성을 위해 기네스북에 기록될 것입니다.

  5. Nikom

    당신은 실수를하고 있습니다. 이것에 대해 논의합시다. PM에 이메일을 보내 주시면 이야기하겠습니다.

  6. Coinleain

    멋진, 좋은 아이디어



메시지 쓰기