Nenhuma empresa hoje lançaria uma ferramenta de inteligência artificial obviamente tendenciosa, mas muitos ainda não se dão conta dos riscos do viés inconsciente, que pode produzir resultados igualmente perigosos.
Atualmente, a maioria das empresas que implementam ferramentas de inteligência artificial está ciente dos riscos potenciais de parcialidade. Um algoritmo que discrimina certas classes de pessoas é claramente inaceitável, e a maioria dos praticantes de IA está, pelo menos, um tanto sintonizada com esse risco. Mas um problema mais profundo se esconde dentro de sistemas de inteligência artificial que podem minar as boas intenções das empresas. É um problema que, por definição, poucos estão conscientes: algoritmos com viés inconsciente. “O preconceito é insidioso porque se você tem dados tendenciosos, não importa quantos dados você use, o resultado ainda será tendencioso”, disse Cheryl Martin, cientista de dados da Alegion, uma plataforma de treinamento em IA. Vários exemplos óbvios e de alto perfil de IA tendenciosa colocaram a questão do viés algorítmico nas agendas de muitos profissionais de IA. Muitos estão familiarizados com o chatbot Tay, da Microsoft, que rapidamente se transformou em um troll racista e misógino, ou o serviço de classificação de imagens do Google, que classificava imagens de afro-americanos como imagens de gorilas. As empresas agora sabem como corrigir ferramentas de inteligência artificial que fornecem resultados obviamente tendenciosos. Mas relativamente poucos estão pensando em preconceitos de maneira mais sistemática. Fonte; TechTarget SearchEnterpriseAI
Atualmente, a maioria das empresas que implementam ferramentas de inteligência artificial está ciente dos riscos potenciais de parcialidade. Um algoritmo que discrimina certas classes de pessoas é claramente inaceitável, e a maioria dos praticantes de IA está, pelo menos, um tanto sintonizada com esse risco. Mas um problema mais profundo se esconde dentro de sistemas de inteligência artificial que podem minar as boas intenções das empresas. É um problema que, por definição, poucos estão conscientes: algoritmos com viés inconsciente. “O preconceito é insidioso porque se você tem dados tendenciosos, não importa quantos dados você use, o resultado ainda será tendencioso”, disse Cheryl Martin, cientista de dados da Alegion, uma plataforma de treinamento em IA. Vários exemplos óbvios e de alto perfil de IA tendenciosa colocaram a questão do viés algorítmico nas agendas de muitos profissionais de IA. Muitos estão familiarizados com o chatbot Tay, da Microsoft, que rapidamente se transformou em um troll racista e misógino, ou o serviço de classificação de imagens do Google, que classificava imagens de afro-americanos como imagens de gorilas. As empresas agora sabem como corrigir ferramentas de inteligência artificial que fornecem resultados obviamente tendenciosos. Mas relativamente poucos estão pensando em preconceitos de maneira mais sistemática. Fonte; TechTarget SearchEnterpriseAI
Amazon avança no mundo físico, com aquisição de cadeia de cinemas
Gigante do comercio eletrônico concorre com outros pretendentes pela Landmark Theatres
A Amazon.com está concorrendo para adquirir a Landmark Theatres, uma iniciativa que colocaria a gigante do comércio eletrônico na indústria do cinema, de acordo com pessoas familiarizadas com a situação. A cadeia pertence à Wagner / Cuban Cos., empresa dos bilionários Mark Cuban e Todd Wagner, que está usando os serviços do banco de investimentos Stephens Inc. em uma possível venda, mas nenhuma decisão final foi tomada e as conversas ainda podem não ir em frente. Entrar no negócio de cinemas seguiria a expansão da Amazon em uma infinidade de outras formas de mídia, incluindo um estúdio de cinema e TV e um serviço de música. A Landmark, concentra-se em filmes independentes e estrangeiros com mais de 50 cinemas em 27 mercados, incluindo locais de alto perfil em Nova York, Filadélfia, Chicago, Los Angeles e São Francisco, alguns com cafés ou lounges, diferenciando-os da típica experiência de cinema. Fonte: Bloomberg