
AI에 중점을 둔 여성 학자들과 다른 이들이 무시되었던 빛을 받을 수 있도록, TechCrunch는 AI 혁명에 기여한 탁월한 여성들에 초점을 맞춘 일련의 인터뷰 시리즈를 시작합니다. AI 붐이 계속됨에 따라 여러 기사를 연재할 것이며, 종종 인식되지 않는 주요 작업을 강조할 것입니다. 다른 프로필은 여기에서 확인할 수 있습니다.
Urvashi Aneja는 Digital Futures Lab의 창립 이사로, 글로벌 사우스의 기술과 사회 상호 작용을 조사하는 거대학 제도 연구를 병행하고 있습니다. 또한 런던에 본부를 둔 독립 정책 연구소인 채터름 하우스 아시아 태평양 프로그램의 부시합원이기도 합니다. 나는 자랑스럽습니다.
Q&A
간단히 말해, AI에서 어떻게 시작했나요? 이 분야에 끌리게 된 것은 무엇인가요?
나는 입시 분야에서 연구와 정책 참여로 경력을 시작했습니다. 몇 년 동안 나는 저소득 국가의 고정된 위기 상황에서 디지털 기술의 사용을 연구했습니다. 나는 즉각적인 혁신과 실험 사이에 섬세한 경계가 있음을 빨리 깨달았습니다, 특히 취약한 인구에게 대응할 때. 이 경험으로부터 나는 특히 AI 같은 디지털 기술의 잠재적 가능성에 대한 기술주의적 서사에 깊은 우려를 느꼈습니다. 동시에, 인도는 디지털 인도 미션 및 인공지능 국가 전략을 시작했습니다. 나는 AI를 인도의 복잡한 사회경제 문제의 은행 발사로 보는 주요 서사와 이 문제에 대한 비평적 논의의 완전한 부재에 깊이 굴욕했습니다.
AI 분야에서 가장 자랑스러운 작업은 무엇인가요?
우리가 AI 생산의 정치적 경제에 관심을 집중시키고 사회 정의, 노동 관계 및 환경 지속 가능성에 대한 광범위한 영향을 응시하도록 능력을 갖췄다는 것에 자랑스럽습니다. 많은 경우 AI에 대한 서술은 특정 응용 프로그램의 이득에 초점을 맞추기 때문에, 최선의 경우 해당 응용의 이익과 위험에만 초점을 맞출 때일 뿐입니다. 그러나 이는 나무들을 위한 숲을 가립니다 - 제품 중심적 렌즈는 AI가 심지어 대부분의 세계에서의 인식적 부정의 기여, 노동의 미네랄화 및 무책임한 힘의 유지를 구축하는 데 기여한다는 것을 제외합니다. 저희는 이렇듯한 우레를 구체적인 정책 및 규제로 번역할 수 있는 데 자랑스럽습니다 — 공공 부문에서 AI 사용에 대한 조달 가이드라인을 설계하거나 글로벌사먹 대 대형 기술 기업에 대한 법적 절차에서 증거를 제시하는 등의 방법으로.
남성 지배 기술 산업, 그리고 연장되는 남성 지배 AI 산업의 도전 과제를 어떻게 해결하시나요?
나의 작업이 말을 대신하게 하고 듣고 왜라는 질문을 계속하면서.그렇습니다
AI 분야에 진입하려는 여성들에게 어떤 조언을 하고 싶나요?
지식과 전문성을 개발하십시오. 문제에 대한 기술적 이해력이 탄탄하다는 것을 확인하시고, AI에 좁게 초점을 맞추지 마세요. 대신 여러 분야와 학문 간 연결점을 찾을 수 있도록 넒은 범위로 공부하세요. AI를 역사 및 문화의 결과물로 볼 수 있게 하는 사회기술 시스템으로 이해하는 사람이 충분하지 않습니다.
AI가 진화함에 따라 가장 시급한 문제 중 일부는 무엇인가요?
가장 시급한 문제는 손에 넣은 손 조 있는 몇가지 기술 회사 안에 힘의 집중입니다. 새로운 대형 언어 모델 및 생성적 AI의 최신 개발로 이 문제는 악화됩니다. 이러한 회사 중 많은 업체들이 이제 AI의 종말적 위험에 대한 두려움을 조장하고 있습니다. 기존의 해를 가리고 있뿐만 아니라 이 문제에 대한 기업이 가공에 이르기 위한 필수적인 위치를 잡습니다. 특히 인도와 같은 장소에서, AI가 사회 경제 발전에 필수로 요구되는 것으로 위치 되어있다는데 관심을 갖고, 지속적 현안을 점합할 엄쉬운 기회가 있다고 말합니다. 이는 AI의 잠재적 인력이 과장되었다는 것은 물론, 이는 지속할 수밖에 없다는 점과 동시에 방지 기능 개발에 필요한 잂이 발전할 수 없다 라는 점을 간과합니다. 우리가 진지하게 고려하고 있지 않은 다른 문제 중에 하나는 AI의 환경 영향입니다 - 현재 트랙은 지속 불가능할 가능성이 있습니다. 현재 에코 시스템에서 기후 변화의 영향을 가장 많이 받는 사람들은 AI 혁신의 수혜자가 될 가능성이 없습니다.
AI 사용자가 주의할 문제는 무엇인가요?
사용자들은 AI가 마술이 아니거나 인간 지능에 가까운 것이 아님을 알아야 합니다. 이것은 역사적이나 이전 패턴에 기초한 확률적 추측에 불과합니다. 사용자들이 주의해야 할 몇 가지 다른 문제가 있을 것이라 확신하지만, 기술이 하류로 책임을 떠넘기기 위한 시도에 경계를 두어야 합니다. 이는 최근 대부분의 세계에서 저소득 국가에서 생성적 AI 도구를 사용함에 있어서 마지막 사용자인 농부나 현장 건강 보조 인력이 기술을 조심스럽게 사용해야 한다는 대신, 기술로 써치함을 이동하는 점이 많이 보입니다.
책임 있는 방식으로 AI를 구축하는 가장 좋은 방법은 무엇인가요?
이것은 먼저 AI가 필요한지 평가하는 것으로 시작해야 합니다. AI가 독특하게 해결할 수 있는 문제가 있는지 또는 다른 수단이 가능한지 알아야 합니다. 그리고 만약 우리가 AI를 구축한다면, 복잡하고 블랙 박스 모델이 필요한지, 아니면 더 단순한 논리 기반 모델이 아닌지 고민해야 합니다. 또한 AI의 구축에 도메인 지식을 다시 중심으로 한다 필요합니다. 대형 데이터에 대한 집착에서 우리는 이론을 희생했습니다 — 도메인 지식을 기반으로하고, 이것이 우리가 빌드하는 모델의 기초가 되어야 합니다. 물론 참여, 포함적 팀, 노동권 등과 같은 주요 문제와 함께하여.
투자자들이 책임 있는 AI를 더 잘 밀어낼 수 있는 방법은 무엇인가요?
투자자들은 AI 생산의 전체 수명주기를 고려해야 합니다 — 단지 AI 응용의 결과나 결과뿐만 아니라. 이는 노동이 공정하게 가치화되는지, 환경 영향, 기업의 비즈니스 모델(예를 들어 상업 감시에 기초한가?) 및 회사 내부 책임 조치에 대해 다루는 것을 요구할 것입니다. 투자자들은 또한 AI의 가정적 이익에 대한 더 나은 및 더 엄격한 증거를 요구해야 합니다.