Página inicial / Inteligência Artificial

Inteligência Artificial

Inteligência artificial a serviço da Justiça

Texto por Adriana Filizzola D’Urso

Surgida entre 1950 e 1960, em decorrência do desenvolvimento tecnológico, a inteligência artificial consiste em gerar mecanismos que reproduzam, através do computador, a capacidade da mente humana que permite pensar, evoluir, produzir e armazenar raciocínios, além de resolver problemas, com alto grau de eficiência, produtividade e rapidez.

Atualmente, a inteligência artificial é uma realidade revolucionária, fazendo parte do nosso cotidiano, se aprimorando cada vez mais e impactando a vida de todos. No mundo jurídico, não foi diferente. Tanto na advocacia, quanto nos órgãos do sistema de Justiça (que compreende o Poder Judiciário, o Ministério Público, a Defensoria Pública e outros órgãos essenciais ao funcionamento da Justiça), a utilização da inteligência artificial é inexorável.

É no Supremo Tribunal Federal que encontramos o maior e mais complexo sistema de inteligência artificial do Poder Judiciário, apelidado de Victor, em homenagem a Victor Nunes Leal, que foi ministro do STF de 1960 a 1969. Foi ele também o principal responsável pela sistematização da jurisprudência do STF em súmulas, o que facilitou a aplicação dos precedentes judiciais aos casos julgados.

Acesse a matéria completa no Consultor Jurídico e compreenda como a inteligência artificial no campo jurídico

Os editores de livros e escritores serão substituídos por robôs?

Como a inteligência artificial está se aventurando na produção literária e na indústria criativa.

Texto por Tânia Lins

Shelley escreve contos de terror. Aliás, já criou mais de 140 mil histórias do gênero, que foram publicadas em um fórum do Reddit. Entretanto, ela não é uma escritora no estrito sentido da palavra. Em homenagem a Mary Shelley, autora do clássico Frankenstein, profissionais do Laboratório de Mídia do MIT — os pós-doutores Pinar Yanardag e Manuel Cebrian sob orientação do professor doutor Iyad Rahwan — criaram uma inteligência artificial capaz de escrever textos com certa proficiência. A notícia dos êxitos literários de Shelley não é recente. Ano após ano, vemos redes neurais desenvolvendo atividades tipicamente humanas. Em 2019, a editora inglesa Springer Nature lançou o primeiro livro escrito por inteligência artificial; a obra fornece uma visão geral das pesquisas mais recentes sobre baterias de íons de lítio. Será, então, que a criatura está superando o criador? Até que ponto as profissões de editor e autor estão ameaçadas pela máquina?

Antes de responder às questões, gostaria de falar sobre algo que me é cotidiano. Ser editor de livros é buscar as respostas que o autor nem sequer pensou que podiam ser dúvidas; é ajudá-lo a se libertar de ideias e conceitos que só têm respaldo, muitas vezes, no senso comum; é ampliar as possibilidades da obra, tornando-a mais acessível e compreensível. É questionar certezas frágeis, argumentos rotos, que se perdem na primeira reflexão do leitor. Há a tendência, principalmente na cultura nacional, de imaginar que os livros nascem prontos, com um enredo indefectível, no qual o autor optou pelo narrador adequado, e o caminho entre o início e o fim está bem traçado, sem ajustes, à prova do crivo da razão. Mas não é bem assim.

Acesse a matéria publicada pelo Diário de Petrópolis e entenda mais sobre a função do editor, do autor e da inteligência artificial no processo de produção de um livro

Inteligência artificial agiliza tramitação interna de processos do TCDF

Medida integra investimentos em tecnologia da Corte de Contas para auxiliar andamentos de documentos oficiais

Texto por Manoela Alcântara e Caio Barbieri

O Tribunal de Contas do Distrito Federal (TCDF) começará a usar, a partir desta quarta-feira (1º/07), uma ferramenta de inteligência artificial que será incorporada ao sistema eletrônico de processos da Corte. A ideia é agilizar a experiência dos usuários no trâmite das peças.

Desenvolvido pela Secretaria de Tecnologia de Informação do órgão, o Orbis utiliza técnicas de aprendizado de máquina (do inglês machine learning) para prever o fluxo mais provável dos processos dentro do e-TCDF. A ferramenta vem sendo testada em segundo plano desde o dia 5 de maio, com 80% de acerto.

Acesse a matéria completa em Metrópoles

USP vai utilizar Inteligência Artificial em modelo de cidade inteligente

Rede formada por universidades, governos e iniciativa privada vai implantar tecnologias como Inteligência Artificial e Internet das Coisas para gerar eficiência nas operações urbanas; modelo será a cidade de Canaã dos Carajás, no Estado do Pará

Rede implantará pela primeira vez o conceito de Smart City com inteligência artificial no País – Foto: 123RF

Pesquisadores do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP em São Carlos vão participar de uma rede nacional para transformação de cidades em Smart Cities, espaços que utilizam tecnologias como Inteligência Artificial e Internet das Coisas para gerar eficiência nas operações urbanas, mantendo o desenvolvimento econômico ao mesmo tempo que melhoram a qualidade de vida da população. A rede Inteligência Artificial Recriando Ambientes (IARA) integra cerca de 20 universidades do País e do exterior, governos e iniciativa privada.

André Carlos Ponce de Leon Ferreira de Carvalho – Foto: Divulgação/CeMEAI

“Esse projeto tem como meta criar uma rede de pesquisa nacional, com sedes próprias e governança compartilhada e polos nos estados de São Paulo, Rio de Janeiro, Espírito Santo, Maranhão, Pernambuco e Pará. O principal objetivo é o desenvolvimento de pesquisa e tecnologia nas áreas de Inteligência Artificial e Internet das Coisas de 5a geração, mas já visando à 6a geração com modelos focados no desenvolvimento de eixos principais como comunicação, energia, mobilidade, saneamento, segurança, saúde, educação e lazer”, explica André Carlos Ponce de Leon Ferreira de Carvalho, um dos coordenadores do trabalho, pesquisador do Centro de Ciências Matemáticas Aplicadas à Indústria (CeMEAI), com sede na USP em São Carlos. O CeMEAI é um dos Centros de Pesquisa, Inovação e Difusão (Cepids) financiados pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp).

A rede IARA terá sedes em todas as universidades parceiras e contará com cidades piloto para implantação dos modelos. As primeiras cidades-alvos do estudo serão Canaã dos Carajás (PA) e São Carlos (SP).

Primeiro modelo de cidade inteligente

Amplamente estudada no projeto da rede IARA, Canaã dos Carajás, no Estado do Pará, é a primeira a implantar o modelo de cidade inteligente. O local já participa de parcerias com universidades e conta com um Fundo Municipal de Desenvolvimento Sustentável com recursos arrecadados da exploração minerária, principal fonte de renda da cidade, para fomentar o desenvolvimento econômico, como a verticalização de cadeias produtivas primárias e investimentos em sistemas computacionais de utilidade pública.

Um convênio com a Universidade Federal do Pará (UFPA) permitiu a aquisição de equipamentos como drones, câmeras, sensores e outros sistemas, como supercomputadores, para implantação do modelo que agora é feito também em parceria com a rede IARA. Com esse material, terá início a coleta de milhares de dados e a extração de padrões e conhecimentos que irão nortear os gestores nas tomadas de decisões nos mais diferentes setores, trabalho que vai contar com pesquisadores da área de Inteligência Artificial da USP em São Carlos. “É a primeira vez que efetivamente o conceito de Smart City com Inteligência Artificial será viabilizado no País”, conclui o professor da UFPA Carlos Renato Lisboa Francês, pós-graduado pelo ICMC da USP.

A expectativa com a implantação do projeto está ligada à criação de mecanismos proporcionadores de pesquisa aplicada em tecnologia, impulsionando oportunidades para startups e spin offs para gerar emprego e renda ao município e região.

Canaã dos Carajás, no Pará, será modelo de cidade inteligente – Foto: Facebook/Prefeitura de Canaã

O índice de concentração urbana no Brasil, que é de 84% de toda a população de acordo com o Instituto Brasileiro de Geografia e Estatística (IBGE), reforça a necessidade de se construir cidades adaptadas às necessidades atuais e que, ao mesmo tempo, estejam preparadas para o futuro. “É nesse sentido que estamos trabalhando, gerando tecnologia e contribuindo para que as pessoas deixem de imaginar como será viver em uma cidade inteligente e possam fazer uso de fato dos recursos e tecnologias que não estão mais no futuro e sim, no presente, na ciência gerada por essa diversidade de conhecimentos em rede, o projeto IARA”, conclui o coordenador do projeto, André Carvalho.

Sobre o CeMEAI

O Centro de Ciências Matemáticas Aplicadas à Indústria (CeMEAI) é estruturado para promover o uso de ciências matemáticas como um recurso industrial em três áreas básicas: ciência de dados, mecânica de fluidos computacional e otimização e pesquisa operacional. Fazem parte do centro o ICMC-USP, CCET-UFSCar, IMECC-Unicamp, IBILCE-Unesp / FCT-Unesp / IAE e IME-USP.

Com informações da Assessoria de Comunicação do CeMEAI

Fonte: Jornal da USP

Inteligência Artificial do TJRO é referenciada

Sinapses é citado como exemplo de abertura para inovação descentralizada

Texto por Assessoria de Comunicação Institucional

O sistema Sinapses, criado por analistas do Tribunal de Justiça de Rondônia, e nacionalizado, em 2018, pelo Conselho Nacional de Justiça, por meio de Termo de Cooperação que tornou a ferramenta disponível para uso por todos os tribunais do País, foi referenciado na Folha de São Paulo de segunda-feira, 15, pelo diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro, Ronaldo Lemos, no artigo  “Inteligência Artificial e o Judiciário”.

O artigo cita um estudo publicado em maio deste ano por um grupo internacional de pesquisadores da escola de administração pública internacional da Universidade Columbia (Sipa), escrito em inglês com o título “The Future of AI in the Brazilian Judicial System” e que, de acordo com Ronaldo Lemos, serve para lembrar que “o Poder Judiciário é berço de experiências tecnológicas bem-sucedidas no país. Uma delas é o Processo Judicial Eletrônico (PJe) ”.

O Sinapses é citado como exemplo e destaque do avanço em Inteligência Artificial no Judiciário, pela sua abertura para inovação descentralizada. “Essa história merece ser conhecida. Mostra um tipo de inovação que dá certo no país e o pioneirismo que muitas vezes vem de longe dos “grandes centros”.

Fonte: Tudo Rondônia

IA Biblio BR

O grupo IA Biblio BR nasceu a partir da publicação do artigo Em Busca do Bibliotecário nos Projetos de IA no LinkedIn.

É uma comunidade criada em janeiro de 2020 para compartilhar eventos, estudos, vagas, matérias e notícias relacionados ao tema Biblioteconomia e Inteligência Artificial.

Hoje, possui mais de 180 participantes de vários estados do Brasil, a maioria bibliotecários entusiastas da área de Tecnologia.

Recentemente, o grupo iniciou uma ação de publicar no seu canal no YouTube, vídeos de bibliotecários que possuem experiência na área de Tecnologia, contando sobre esse aprendizado e como eles aplicam os conhecimentos de Biblioteconomia na Tecnologia.

Três bibliotecários já compartilharam suas experiências no canal: Andrea Nunes (SP), Dayanne Araújo (CE) e Michelângelo Viana (RS).

Nesse link, é possível conhecer detalhes dessa ação e como participar: bit.ly/IABiblioBRYouTube.

Os bibliotecários interessados em integrar o grupo no LinkedIn, podem solicitar a participação no link: bit.ly/IABiblioBRLinkedIn.

Inteligência Artificial e Blockchain podem se complementar?

Texto por Fares Alkudmani

Foto: Shutterstock

Inteligência Artificial (IA) e Blockchain são, sem dúvida, as tendências tecnológicas mais instigantes dos últimos dois anos. E há razões válidas pelas quais essas tecnologias atraíram muita atenção.

Por um lado, a inteligência artificial promete facilitar a automação de várias tarefas, além de possuir a capacidade de modelar cenários complexos com maior eficiência em comparação aos seres humanos.

Por outro lado, a tecnologia blockchain promete fornecer segurança e privacidade aprimoradas das informações, além do potencial de eliminar o controle e a centralização da autoridade feita por grandes organizações.

Diante desse motivo, a pergunta comum que a maioria das pessoas faz é se ambas as tecnologias, IA e Blockchain, podem funcionar bem juntas.

O que é inteligência artificial?

Inteligência é a  capacidade de entender e organizar as informações além do óbvio, do explícito. A inteligência pode ser classificada como:

  • Individual
  • Grupo

Seguindo esse raciocínio, a inteligência artificial se refere à inteligência criada pelo homem.

Em termos simples, refere-se à teoria e ao desenvolvimento de sistemas de computador que podem executar tarefas que caracteristicamente requerem inteligência humana.

As tarefas incluem percepção visual, identificação de fala, tomada de decisão e tradução de idiomas.

O que é a tecnologia Blockchain?

A tecnologia Blockchain refere-se a um registro compartilhado e descentralizado de transações, caracterizado por transparência, confiabilidade, verificabilidade e contratos inteligentes.

A estrutura descentralizada e compartilhada implica na manutenção dos dados em uma rede, possibilitando que todos os participantes acessem as informações ou que realizem transações sem precisar se conectar a um servidor central.

Como cada bloco da blockchain possui uma informação única criptografada, essa tecnologia garante a confiança e a autenticidade dos dados.

É importante ressaltar que não é possível alterar os dados mantidos em um bloco sem a validação de toda a cadeia de dados armazenados em um bloco e, portanto, um participante não é capaz de prejudicar a cadeia.

Isto explica por que essa tecnologia depende de um algoritmo de consenso, o qual se refere ao mecanismo pelo qual todas as partes em uma rede chegam a um acordo para fazer alterações na blockchain.

Contribuindo para a construção do conceito blockchain, demonstrando um uso pertinente dessa tecnologia, temos os contratos inteligentes.

Os contratos inteligentes são códigos descentralizados que podem ser ativados quando uma sequência específica de atividades é atendida. Essa modalidade facilita a realização de transações entre as partes de maneira segura e verificável, sem a necessidade de um intermediário. 

Como a tecnologia blockchain e a inteligência artificial podem se complementar

A tecnologia blockchain e a inteligência artificial são duas tecnologias que estão se desenvolvendo em direções opostas.

A IA concentra-se predominantemente em informações rápidas e complexas que dependem de grandes volumes de dados e recursos de computação.

Por outro lado, a tecnologia blockchain tem a capacidade de aproveitar esses recursos de dados e computação de maneira mais transparente e descentralizada. Mas seu processamento ainda é lento quando comparado com IA.

No entanto, é provável que esse desafio seja enfrentado por diferentes projetos de dimensionamento de blockchain em andamento.

Por esse motivo, quando combinadas, a tecnologia blockchain e a inteligência artificial podem contribuir para o desenvolvimento de aplicativos interessantes. Algumas das utilidades mais importantes  incluem:

  • Manutenção de privacidade dos dados
  • Criação de um marketplace para algoritmos
  • Facilitar o crescimento de um marketplace de dados
  • Permitir o lançamento de empresas autônomas descentralizadas

Manutenção de privacidade de dados

Blockchain ‘anonimiza’ informações. Embora existam mecanismos para saber quais informações estão conectadas a qual indivíduo em um determinado momento, a capacidade de anonimização faz do ledger de blockchain como uma plataforma viável para fins de pesquisa.

Da mesma forma, em vez de empresas centralizadas como a Google coletarem informações sobre milhões de usuários, qualquer entidade que consiga acessar um ledger blockchain pode usar informações anônimas disponíveis no registro de blockchain. Isso para realizar análises, fazer estimativas e até treinar algoritmos sem violar a privacidade de usuários de rede.

Como o foco está na colaboração entre tecnologia blockchain e inteligência artificial, a possibilidade de treinar algoritmos é uma capacidade relevante, pois pode minimizar o viés no acesso aos dados.

Por exemplo, os algoritmos, que são invenções baseadas em IA, dos principais mecanismos de pesquisa geralmente são treinados com base em dados de usuários predominantemente ocidentais.

No entanto, a tecnologia blockchain pode tornar possível criar e treinar algoritmos que são mais representativos da população global por meio do uso de uma blockchain anônima global de amplo alcance e descentralizada.

Criação de um marketplace para algoritmos

No momento em que você descentraliza o acesso à computação e aos dados, a Inteligência Artificial pode representar uma grande oportunidade de crescimento, impulsionada por  esta comunidade. Já temos pacotes de código aberto para modelos comuns de aprendizado de máquina, como o TensorFlow.

Isso significa que dados e computação baseados em blockchain podem impulsionar essa tendência e dar origem a um marketplace para algoritmos.

Portanto, em vez de o desenvolvimento da IA ​​ser interno e proprietário, ele pode se tornar um mercado aberto, no qual qualquer pessoa pode participar e fornecer valor.

Como já vimos com a ascensão dos modelos de negócios de Software como Serviço (SaaS), um mercado de algoritmos pode promover uma inovação muito além do desenvolvimento privado.

Facilitar o crescimento de um marketplace de dados

Uma consequência importante dos sistemas baseados em blockchain é que é fornecido aos usuários maior controle sobre seus dados.

Atualmente, os mecanismos de pesquisa rastreiam e mantêm online informações sobre as atividades dos usuários. Um maior controle sobre essas informações significa que os usuários podem ter a oportunidade de, por exemplo, trocar suas informações por serviços personalizados.

Permitir o lançamento de empresas autônomas descentralizadas

A aplicação mais abstrata e também potencialmente transformadora de blockchain e IA trabalhando em conjunto é a criação de negócios independentes.

Nós já temos algumas Organizações Autônomas Descentralizadas (DAOs). No entanto, seus termos de compromisso são baseados em contratos inteligentes, que envolvem codificação rígida.

Isso significa que a empresa pode executar suas funções, mas não pode fazer escolhas independentes, pois depende das regras elaboradas pelo desenvolvedor do contrato inteligente.

Combinar tecnologia blockchain e IA significa que existe a possibilidade de que essas organizações possam tomar decisões independentes. Essas organizações podem obter recursos e selecionar as melhores abordagens para distribuir esses recursos de acordo com cada contexto.

Tais decisões, sejam elas comerciais ou filantrópicas, podem ser tomadas com base em informações de mercado.

Esse contexto pode favorecer o surgimento de organizações autônomas que operam sem influência externa. Isso  pode representar uma solução inédita no sentido de governança efetiva, de igualdade econômica e de diminuição da carga de trabalho àqueles que atuam em áreas do conhecimento humano.

Posicionando seu negócio para a convergência de Blockchain e IA

Enquanto aplicativos específicos de integração de IA com blockchain dependerão de cada  necessidade comercial exclusiva, o fator comum serão os dados.

O blockchain garantirá que as informações sejam seguras, privadas e confiáveis. Por outro lado, os modelos de IA utilizarão essas informações para aumentar a eficiência.

Portanto, empreendedores e empresas precisarão identificar seus requisitos comerciais específicos e determinar se as tecnologias blockchain ou IA podem aprimorá-los.

Caso você já tenha automatizado seus processos, pode ser benéfico explorar como o blockchain pode fornecer melhorias.

Fonte: Portal do Bitcoin

Virtualização, compartilhamento de espectro e inteligência artificial são tendências aceleradas pela covid-19

Texto por  Heloisa Paiva

Especialista diz que esse tripé tecnológico é responsável por manter o mundo em atividade, mesmo quando tudo parece paralisado

A pandemia do novo coronavírus exigiu medidas por vezes drásticas para conter a disseminação da doença. O Brasil agora ocupa a segunda posição no ranking, ficando atrás somente dos Estados Unidos em número de casos. Todos estão aprendendo a conviver com esta fase de incertezas, tentando movimentar a economia do jeito que é possível. O mundo aprendeu finalmente a trabalhar em home office e uma coisa é certa: o delivery de tecnologia está aumentando mais do que o previsto e deve ser responsável por adiantar várias tendências que caminhavam a passos lentos.

Dados da 31ª Pesquisa Anual do Uso de Tecnologia da Informação (TI) no Brasil, divulgada no início deste mês pela Fundação Getúlio Vargas (FGV), revelam que o Brasil registra 424 milhões de dispositivos digitais em uso atualmente, entre smartphones, tablets, notebooks e computadores – o que dá em média dois dispositivos por habitante. Mais da metade deles são celulares inteligentes. Mesmo antes da pandemia, o vídeo ocupava mais de 70% do conteúdo transmitido pela rede móvel. Isso aumentará exponencialmente no mundo pós-covid19 e sobrecarregará as redes móveis que não foram projetadas para lidar com essa carga.

Na opinião de Adriano Filadoro, diretor-presidente da Online Data Cloud , “a pandemia demonstrou a importância da prontidão digital, que permite que os negócios e a vida continuem de uma forma diferente, mas eficiente. Criar a infraestrutura necessária para apoiar um mundo digitalizado, além de incorporar as tendências que garantem competitividade nos negócios, é essencial para qualquer empresa. O que nós estamos vendo é o tripé que mantém a vida das pessoas assentado em bases tecnológicas. Ou seja, o trabalho deve estar o mais digitalizado possível, os estudos a distância têm de ser uma opção viável para todos o quanto antes e o entretenimento deve ser socorrido pela tecnologia enquanto aglomerações significarem risco aumentado para a disseminação da doença”.

Filadoro aponta TRÊS tendências que estão transformando rapidamente a realidade:

  1. Virtualização. “O volume de dados transmitidos aumentou muito durante a quarentena, levando as operadoras móveis a fazer com que a infraestrutura de rede seja capaz de suportar esse aumento. Como recursos físicos demandam altos investimentos, a virtualização vem se mostrando uma opção inteligente. A virtualização de RAN (Regional Area Network), por exemplo, vem sendo adotada por muitas operadoras de rede. O ganho de escalabilidade e elasticidade resulta numa rede mais eficiente e econômica. Além disso, a virtualização também pode ser empregada em rede aberta, abrindo caminho para a inovação. Outro ponto importante são os desktops virtuais. Essa solução permite ao colaborador acessar o ambiente da empresa com todas as aplicações existentes. É possível trabalhar remotamente como se estivesse na mesa de trabalho da empresa, com todos os dados necessários para dar continuidade às atividades de rotina. Quando o isolamento chegar ao fim, ainda assim é prudente deixar desktops em nuvem, para que sejam ativados em situações de emergência”.
  2. Compartilhamento de espectro. “Já se sabe que o compartilhamento de infraestrutura será fundamental para o bom desenvolvimento do 5G no país, incluindo postes, torres, dutos, condutos etc. Mas também o espectro deve ser compartilhado, maximizando sua utilização e ainda abrindo oportunidade para novos negócios. As tendências tecnológicas deixam claro que em um mundo pós-covid19 mais conteúdo será assistido e consumido em dispositivos móveis . As videoconferências caíram rapidamente no gosto das pessoas, principalmente porque eliminam o problema do deslocamento – tão complexo nas grandes cidades. Sendo assim, vão continuar a ser um recurso muito usado em reuniões, aulas online ou vídeos para entretenimento. Para evitar o congestionamento da rede e melhorar a experiência do usuário, as empresas vão aderir a um dos vários tipos de compartilhamento de espectro”.
  3. Inteligência Artificial. “A inteligência artificial e o aprendizado de máquina estão desempenhando um papel cada vez maior nas empresas. Quando a comunicação estiver sendo feita com auxílio desses sistemas, fazendo uso de espectro compartilhado, a carga será monitorada continuamente nas várias redes. Dependendo dos dados, do número de usuários e da carga da rede, a inteligência artificial pode contribuir na tomada de decisão quando se tem de escolher parâmetros ideais para fornecer conteúdo. Sendo assim, as redes podem decidir automaticamente mudar a transmissão de um espectro para outro em tempo real, melhorando bastante a experiência do usuário. Além disso, a inteligência artificial é capaz de transformar dados em conhecimento, levando à tomada de decisões mais assertivas e com mais chances de sucesso. As empresas que conseguem obter novos insights, monitorando o negócio a partir dos dados atuais, otimizando os processos e monetizando o conhecimento adquirido através da análise dos dados estão na vanguarda dos acontecimentos . É essa análise de dados, levada a um patamar mais elevado, que permitirá melhorar a experiência do cliente, agilizar operações e inovar em velocidade máxima”.

Fontes:

Adriano Filadoro, diretor-presidente da Online Data Cloud, empresa com 26 anos de atuação na indústria de TI. http://www.onlinedatacloud.com.br

http://abori.com.br/tecnologia-e-engenharia/pandemia-deve-acelerar-a-transformacao-digital-no-brasil-aponta-fgv/file:///Users/helo/Downloads/22-11-2016-qualcommmudancas-na-politica-deespectro.pdf  

Fonte: Segs

QUAIS CAMPOS DA INTELIGÊNCIA ARTIFICIAL O BIBLIOTECÁRIO PRECISA ESTUDAR?

Texto por Barbara Coelho

Em 1989 uma doutora em psicolinguística e um Ph.D. em Engenharia Elétrica escreveram um relevante artigo sobre as perspectivas da inteligência artificial (IA) na Biblioteconomia e na Ciência da Informação. Embora não tendo sido escrito por pesquisadores da CI, esse que foi, provavelmente, o primeiro trabalho em português publicado sobre o tema na Biblioteconomia, aponta possibilidades de aplicação de dois campos da IA, sendo eles os sistemas especialistas e o processamento de linguagem natural (PLN).

A primeira vez que tive contato com este trabalho foi em 2015, quando tive a oportunidade de ver uma apresentação do Watson da IBM – já falei sobre ele aqui na matéria Computação Cognitiva: novas perspectivas para a Ciência da Informação – e depois de então passei a me questionar porque não tive acesso a este texto antes na minha graduação? ou nos eventos da área que frequentei durante o mestrado?, ou ainda nos Anais e revistas da área?

O artigo que serviu para eu abrir esta discussão hoje foi digitalizado e pode ser recuperado no portal da BRAPCI, mas continua me causando certos questionamentos internos sobre passividade da área e silenciamento do tema durante muito tempo na Ciência da Informação.

Outro dia, escutei uma bibliotecária perguntar se eu sabia qual era o motivo da IA ter demorado tanto para chegar ao Brasil. Eu respondi que não havia demorado, mas talvez a CI e, em especialmente, a Biblioteconomia não a tenham percebido ou mesmo não se via dialogando com a IA de maneira mais próxima. Mas a problemática é que na contemporaneidade nos vemos frente a inteligência artificial e constantemente desafiados a interagir com ela.

A interação homem-máquina está preste a sucumbir à observação da interação máquina-máquina. Esse aspecto não irá exigir somente dos profissionais novas formas de trabalho, mas sim requerer de toda a área novos modelos de negócio para inter-relacionar-se com a informação enquanto instituição biblioteconômica. E como estamos com relação a isso?

Frente ao que tenho pesquisado sobre o tema no Laboratório de Tecnologias Informacionais e Inclusão Sociodigital (LTI Digital), começo a perceber que a IA envolve uma “nova problematização da inclusão digital”. E diante a isso, os campos que merecem atenção do bibliotecário envolvem:

  • Dados tabulares – Até o presente momento podemos vislumbrar a atividades ligadas à gestão da informação e à gestão do conhecimento;
  • Processamento de Linguagem Natural (PLN) – Em campos da classificação, indexação estudos cognitivos e de mediação da informação;
  • Sistemas especialistas – Apoio ao atendimento e curadoria digital;
  • Interação com computação cognitiva – Interage bem com campos da representação e fontes de informação;
  • Visão computacional – A experiência da abordagem documental.

Sabendo que estamos no meio do campeonato, vale salientar que pode ser que o jogo mude e precisamos estar preparados para isso. Contudo, por hora é o que vislumbramos e compreendemos que precisamos estudar tais temas da IA pensando na probabilidade de interação entre seus campos e os campos da Biblioteconomia. Não sabemos quanto tempo ainda teremos para que bibliotecários usem a IA para interagir de forma institucionalizada com a informação e os usuários, de maneira como já nos acostumamos com outros sistemas.

Saiba mais:

SIQUEIRA, I. Semeghini P.; PEREIRA, Antônio E. C. Perspectivas de aplicação da inteligência artificial à biblioteconomia e à ciência da informação. R. Bras.Bibliotecon.e Doc., São Paulo, 22 (112) :39-80, jan./jun.19.

Fonte: InfoHome – OFAJ.COM.BR

Por que a inteligência artificial está em todos os lugares, menos nos resultados dos negócios

Texto por Cezar Taurion

Essa é uma dúvida muito comum de empresas que investem na tecnologia. O problema é que a maioria delas aposta em provas de conceito e protótipos. Saiba como inverter essa lógica e começar a ter resultados

Na imensa maioria das vezes assistimos a palestras de empresas e startups que falam em usar inteligência (IA), geralmente no futuro, ou que estão em experimentações em labs restritos, mas poucas vezes ouvimos elas dizerem de como mantém seus sistemas de IA em produção.

Um sistema de IA não utilizado não oferece valor. Um protótipo, se não for colocado em produção, torna-se um brinquedo. E em muitas conversas observo que ainda vemos poucas coisas de IA colocadas em produção. E, por isso, muito pouco é dito sobre como fazer a transição do desenvolvimento para produção e de como manter e gerenciar estes sistemas no dia a dia.

Portanto, nada mais natural que em uma conversa com a diretoria de uma empresa para o qual fui convidado a integrar seu Conselho de Inovação, tenha ouvido a reclamação.

“Investimos em IA. Montamos uma equipe e criamos um lab de IA. Fizemos algumas PoCs (proof of concept), mas não vimos ainda nenhum resultado concreto. Parece que apenas damos entrevistas à mídia sobre IA, mas ela não apareceu ainda nos nossos resultados.”

É uma preocupação comum. IA parece estar em todos os lugares, menos nos resultados dos negócios. Na verdade, o sonho da diretoria desta empresa é ser alguém como a Amazon, onde IA está entranhada no negócio. O artigo “Inside Amazon’s Artificial Intelligence Flywheel” mostra como ela fez e faz isso.

Mas, acalmando os executivos, analisamos juntos o cenário no qual estavam inseridos. Contei uma história. Nos últimos anos, ouvimos muitas vezes a conversa de como grandes organizações dizem que estão implantando IA seus negócios. Algumas pesquisas apontam que até 93% dos entrevistados afirmam que suas organizações estavam investindo em iniciativas de IA.

A maioria das grandes organizações investem alto em IA. Porém, não ouvimos delas quais resultados foram obtidos a partir destas iniciativas

A maioria são organizações grandes que investem alto em IA e com um histórico de adoção relativamente inovadora de outras tecnologias. Porém, não ouvimos delas quais resultados foram obtidos a partir destas iniciativas de IA. Conversando com algumas dessas empresas descobri que eles simplesmente não estavam muito adiantados em suas iniciativas, e, portanto, seus projetos, pelas suas óticas, ainda não valiam a pena serem mostrados publicamente.

Eles estavam fazendo muitos pilotos, provas de conceito e protótipos, mas tinham nenhuma ou poucas implantações em produção. Quando eles tinham sistemas de IA em produção, a maioria eram sistemas baseados em machine learning que já estavam operando há muitos anos.

Os bancos, por exemplo, já usam amplamente a “pontuação” para avaliar os riscos dos clientes em busca de crédito e evitar possíveis fraudes. Alguns disseram que na verdade seus projetos de IA eram implementações de automação de processo robótico (RPA), mas sem uso de IA, apenas automação dos processos existentes.

As melhorias nos processos era feita manualmente, e depois inseridas nos seus softwares de RPA. Claramente nestes casos, dizer que sua implementação de RPA é uma implementação de IA é, no mínimo, um exagero!

Mas há boas razões pelas quais as implementações de produção dos projetos de IA são relativamente escassas. Uma é a pouca maturidade da tecnologia. Chatbots e agentes inteligentes, por exemplo, estão melhorando a cada dia, mas muitas empresas ainda hesitam em colocá-los na linha de frente com seus clientes.

Em vez disso, eles os usam internamente, apoiando a comunicação dos seus funcionários os setores de RH e TI. Alguns disponibilizam chatbots para seus call centers, mas para uso em segundo plano para ajudar a responder às perguntas dos clientes.

Na verdade, muitas implementações de chatbots não são boas. Muitos chatbots não aprendem com as interações com seus clientes e só respondem a perguntas muito simples e diretas. Um artigo interessante aborda esta questão: “Bots are not really ‘intelligent’. Here’s why”.

Outro desafio é que um algoritmo de IA para trazer resultados para o negócio precisa estar embutido dentro de uma aplicação. E esta aplicação precisa estar integrada com os demais sistemas da organização. Seu resultado deve, provavelmente, afetar sistemas, processos e atividades dentro da empresa.

Um algoritmo isolado, não tem muito a oferecer. Se a iniciativa de IA realmente alterar alguns processos de negócios relevantes, isso cria uma outra barreira à sua implementação, que é a natural aversão às mudanças.

Mudar o comportamento das pessoas devido a interação com algoritmos de IA não é fácil

A maioria dos sistemas de IA ainda envolve interação com as pessoas e educar os funcionários em novas tarefas e novas habilidades pode ser demorado e custoso. Mudar o comportamento das pessoas devido a interação com algoritmos de IA não é fácil.

Mas o que pode e deve ser feito?

Antes de mais nada, definir prazo e critérios para avaliar se o projeto piloto deverá entrar em produção, antes do início do seu desenvolvimento. Isso vai adicionar rigor ao processo de decisão e alertará os proponentes do projeto piloto de que a implementação é uma consideração importante desde o início e que não deve ser encarado como uma mera PoC.

Valide se o sistema de IA proposto pode ter uma interface relativamente fácil com seus sistemas existentes, como uma API ou código de programa gerado, que funcione com sua arquitetura de sistemas.

Inicie um programa de educação relacionada à IA. Mesmo que você não tenha certeza das necessidades específicas de seus funcionários para reciclagem e requalificação, você pode disponibilizar ofertas de educação sobre como entender e trabalhar com IA.

Esses programas educacionais alertam os funcionários de que ocorrerão mudanças em seus trabalhos com a IA e que eles devem começar a se preparar para isso. Conhecer IA e não ter receio de perder emprego, por exemplo, ajuda em muito no processo de gerenciamento de mudanças.

Agora que você já tem uma PoC pronta para liberação no ambiente de produção, não esqueça que, embora imperfeito, ele deverá conter todos os elementos necessários para resolver o problema, como interfaces da web, APIs, controle de armazenamento e de versão. Mas, sair da POC para produção é uma tarefa que não é simples. Leia o artigo “Moving AI from PoC Stage to Production” para entender que o processo é uma estrada sinuosa e pedregosa.

Ter um modelo em produção não significa que ele precisa ser visível publicamente. Pense em uma fase piloto, onde ele deve ser exposto a dados ativos, para que sua equipe possa fazer refinamentos até atender aos requisitos que serão disponibilizados para uso aberto.

Com os dados ativos, você pode realizar testes mais exaustivos de execução e fornecer à sua equipe de IA feedback sobre o que está funcionando bem e o que não está. Nesse estágio, priorize o estabelecimento de um processo de liberação controlada e gradual.

Você também deve monitorar o desempenho e a escalabilidade do seu sistema. Planeje ciclos contínuos de melhoria, investigue e implemente refinamentos do modelo e, alterações das interfaces. Novos modelos devem ser comprovadamente superiores aos que substituem. Teste todas as alterações antes que as atualizações sejam lançadas no ambiente de produção. Esses ciclos continuarão por toda a vida útil do sistema.

Ao planejar o projeto de implementação, valide onde seu sistema será executado: no seu data center ou na nuvem? A opção pelo seu data center, on premise, geralmente é tomada quando seus dados são altamente sensíveis e você precisa mantê-los sob seu controle direto.

Normalmente, isso é possível apenas para empresas que já possuem sua própria infraestrutura de hardware. Essa pode ser uma opção válida se o volume de solicitações de gerenciamento for conhecido e relativamente estável. No entanto, todo o novo hardware adicional deve ser adquirido e provisionado, o que limita a escalabilidade. A opção de usar nuvem pode ser vantajoso para a maioria das empresas.

Não esqueça que você pagará para transferir e receber dados, mas vai evitar o custo da aquisição de hardware e de uma equipe para gerenciar o ambiente. Como transferir grandes volumes de dados é custoso, se você já estiver usando ambientes de nuvem como os da Amazon, Google, IBM ou Microsoft, para suas aplicações tradicionais, é mais atrativo continuar com ele para seus projetos de IA.

Para comprovação de que as novas versões de IA são eficazes e melhores que as versões anteriores, teste seu sistema de IA em vários estágios. Durante o treinamento: enquanto seu modelo está sendo treinado, teste-o constantemente com um subconjunto de dados de treinamento para validar sua precisão.

Os resultados não representam totalmente o desempenho do modelo, porque os dados do teste randomizados irão influenciar o modelo. Como resultado, esse teste provavelmente exagerará a precisão do modelo. Não considere este número quando for vender a ideia para seu board.

Lembre-se que um sistema de IA não cessa de evoluir nunca. Infelizmente na hora que você coloca um sistema em produção ele começa a degradar

Na validação, reserve uma parte dos seus dados de treinamento para isso. Este conjunto de testes, conhecido como conjunto de validação, não deve ser usado para treinamento. Por conseguinte, as previsões que o seu sistema de IA faz a partir do conjunto de validação representam melhor as previsões que ele fará no mundo real.

A precisão no estágio da validação geralmente é menor que a precisão obtida durante o treinamento. Cuidado para que o seu conjunto de dados represente bem os dados do mundo real, pois, caso contrário, pode gerar uma precisão superestimada. Muita atenção com os dados que podem embutir viés nos algoritmos.

Após a criação do seu modelo, teste-o com dados ativos para obter uma medida de precisão mais apropriada. De maneira geral, esta precisão é muito menor que a obtida no teste e deve ser refinada continuamente.

E finalmente, lembre-se que um sistema de IA não cessa de evoluir nunca. Infelizmente na hora que você coloca um sistema de ML em produção ele começa a degradar! O artigo “Why Machine Learning Models Degrade In Production” debate esta questão.

Mas fica claro que para manter a inteligência do sistema de IA, teste regularmente os resultados com dados ativos, para garantir que os resultados continuem atendendo seus critérios de aceitação. Separe budget para futuras atualizações e reciclagem, e monitore sistematicamente a degradação do desempenho.

À medida que sua empresa cresce ou muda o foco, os dados (incluindo dados de séries temporais e características do produto) evoluirão e se expandirão. A reciclagem sistemática de seus sistemas deve ser um componente de sua estratégia de IA. Lembre-se de que a IA é uma capacidade, não um produto. Está sempre melhorando. Surgem novos algoritmos e as técnicas de IA que usamos hoje podem se tornar obsoletas em poucos anos.

A implementação de projetos de IA é a única maneira pelas quais as organizações obterão valor tangível a partir de seus investimentos em IA. As empresas estão gastando muito dinheiro ​​em tecnologia de IA, e ela não deve ser vista exclusivamente como um experimento. Somente quando as empresas avançam para o status de produção com IA é que ele fornece ROI e produtividade para suas organizações. Ficar em labs e PoCs não gera resultados tangíveis. Só mídia.

Fonte: Neofeed

FGV EESP realiza webinar sobre os desafios da ciência de dados e inteligência artificial na medicina

Evento será dia 14 de maio, das 19h às 20h30, pelo Youtube

A Escola de Economia de São Paulo da Fundação Getulio Vargas (FGV EESP) promoverá um webinar sobre os desafios da ciência de dados e inteligência artificial na medicina, no dia 14 de maio, das 19h às 20h30. Os interessados em participar devem fazer a inscrição pelo site da FGV EESP (http://eesp.fgv.br/). Após o cadastro, receberão o endereço da webinar por e-mail.

A ideia do debate é abordar aplicações de ciência dos dados e a inteligência artificial em medicina. Além de temas relacionados à dinâmica da atual pandemia, também serão discutidas as aplicações em medicina diagnóstica e as preocupações éticas correspondentes. O evento será moderado por Marcelo Fernandes (professor FGV/EESP), contando com a participação dos pesquisadores Fernando Bozza (Instituto D’Or) e Silvio Hamacher (Departamento de Engenharia Industrial, PUC-Rio).

Fonte: Jeonline

Inteligência Artificial no mundo jurídico

Texto por Leon Santos e Paulo Melo

Você conhece o Victor? Servidores robôs já são parte do cotidiano das instituições públicas e causam revolução, no quesito produtividade Um novo personagem tem roubado a cena nas dependências do Supremo Tribunal Federal (STF), e se engana quem pensa tratar-se de uma pessoa. Denominado ‘Victor’, o novo integrante é um robô que foi implantado na Corte, com a finalidade de agilizar a busca e os trâmites processuais.

O nome do dispositivo é uma homenagem ao ex-ministro do STF, Victor Nunes Leal, que trabalhou na Corte entre 1960 e 1969. Desenvolvido por especialistas do Tribunal, em parceria com cientistas da Universidade de Brasília (UnB), ao custo de R$ 1,6 milhão, Victor é um robô virtual (software de inteligência artificial) utilizado para ler e analisar processos. Entre as funções do dispositivo estão converter imagens em textos (dentro dos processos digitais), classificar as peças processuais mais utilizadas nas atividades do STF e identificar temas de maior repercussão e incidência na Casa. Ele ainda consegue separar as partes de um documento (início e fim), o que facilita a leitura de peça processual e sobressai a decisão dos magistrados.

Segundo a ministra Cármen Lúcia, presidente da Corte na época do lançamento da plataforma (em agosto de 2018), o trabalho de conversão de imagens em texto — que é realizado por uma pessoa em 3 horas — o Victor realiza em 5 segundos. “A ferramenta possibilita melhor aproveitamento de recursos materiais e humanos do Tribunal, acelera a análise dos processos e reduz congestionamento na admissibilidade dos recursos nos tribunais de origem. Também auxilia o Poder Judiciário a cumprir sua missão em diversas instâncias”, disse.

O atual presidente da Casa, ministro Dias Toffoli, também se mostrou entusiasmado com o desempenho do robô, ao apresentá-lo em palestra realizada em Londres – Inglaterra, em setembro de 2019. Ele ratificou as impressões de sua colega ministra e destacou que o novo dispositivo trouxe maior velocidade na análise de processos, bem como otimização de tempo e recursos.

Toffoli, no entanto, frisou que a participação humana continua imprescindível na área jurídica. “É uma mudança inevitável e não temos como frear o desenvolvimento. Servidores e advogados terão de se adequar aos novos recursos tecnológicos, que já são tendência no mundo. Mas as pessoas continuam sendo essenciais para que o trabalho jurídico ocorra”, analisa.

Fonte: 93 NOTÍCIAS

A Ciência Cognitiva na era da Inteligência Artificial

Texto por Adelaide Leitão

A mente não é o software e o cérebro não é o hardware; não, não é assim tão simples. O estudar a cognição é estudar, de forma interdisciplinar, o comportamento, a mente e o cérebro.

A maioria dos leitores conhece Sofia, o robot humanoide apresentado ao público em 2016, capaz de ver, ouvir, falar e de produzir expressões faciais, capacidades que o cunharam como popular exemplo de Inteligência Artificial (IA).

Tão imensamente popular nos anos mais recentes, vale a pena recordar que, na essência, a IA é um ramo da ciência da computação focado na criação e simulação de comportamento inteligente em computadores, ou seja, um ramo dos vários do estudo da vida artificial, focado na criação de agentes capazes de simular capacidades mentais humanas. A crescente popularidade respalda-se em larga escala no (velho) fascínio de artificializar a inteligência humana em algo que não o seja (dispositivos, software, máquinas, …); no fascínio de, por o cérebro humano fazer computação, ser natural a computação reproduzir o intelecto humano; no fascínio de criar mentes que possam até ser mais inteligentes que o próprio humano. E, afinal, o que é a inteligência?

Definições de dicionário incluem “faculdades de memória, criatividade,  julgamento, raciocínio e abstração”, “capacidade de compreender, raciocinar, aprender e decidir”  ou “utilização qualificada da razão e do conhecimento” que, tal como a origem do termo, se refere a “quem sabe escolher”:  ser inteligente é ser capaz de operar, com sucesso, num ambiente através de escolhas adequadas para cada situação.

Voltemos à Sofia; a sua “inteligência artificial” implicará então ser capaz de adquirir e processar informação, criar e usar conhecimento para atingir, com sucesso, determinados objetivos.  E, percebemos, que não é possível dissociar dois conceitos; inteligência e conhecimento (cognição) e que, sem capacidade de cognição não será possível mostrar inteligência.

A Ciência Cognitiva defende que estudar o conhecimento, a sua representação e manipulação exige uma compreensão da mente humana que, para ser completa, implica analisar os distintos níveis em que ocorrem os processos mentais. Estudar a mente humana é estudar os processos cognitivos e as atividades mentais como percepção, julgamento, raciocínio, memória, linguagem – e atender que os mesmos ocorrerem diferentemente em cada indivíduo.

A mente não é o software e o cérebro não é o hardware; não, não é assim tão simples!

O estudar a cognição é estudar, de forma interdisciplinar, o comportamento, a mente e o cérebro combinando a Psicologia (que aborda a experiência humana interna e externa, ao nível individual e em grupos), a Filosofia (exploração crítica da existência, da realidade e do conhecimento, dos processos de pensamento, de aprendizagem e de comportamento),  a Linguística (que explora como a linguagem define o pensamento e a compreensão humana), a Neurociência (a biologia do pensamento e da cognição, a compreensão profunda dos neurônios, dos circuitos neurais e de como o cérebro e as suas distintas partes suportam os processos mentais),  a Antropologia (a lente cultural e evolutiva, a construção do conhecimento partilhado, a interpretação do ambiente e como o humano se relaciona e age no Mundo) e claro, também e de forma central, a Inteligência Artificial.

O poder da computação tem moldado os avanços da IA e hoje, o mesmo termo é usado para tantas coisas que até há pouco eram apelidadas de forma diferente.  O aumento do interesse é quase sempre positivo e estimulante; contudo, é importante recordar o que de facto estamos a falar quando falamos de IA. Considerar não apenas as aplicações (por mais valor que demonstrem ou extravagantes que sejam) mas também (e sempre) as questões fundamentais da cognição, do pensamento e da mente humana.  Uma mente que extrapola os limites do cérebro, que emerge e se forma da dinâmica com o corpo e com o ambiente físico e social.

Perante isto – ou pelo menos no estado de arte em que nos encontramos– a inteligência artificial e a inteligência humana ainda não competem. A Sofia não é uma ameaça e a IA valiosa para humanidade é aquela que atua como parceira, integrando e facilitando os estilos de vida e as capacidades humanas.

Fonte: Obervador

Inteligência artificial do Exército Brasileiro alcança recorde de engajamentos no período de um mês

Texto por Marcelo Barros

Em 5 de maio, Dia das Comunicações, o soldado Max, a inteligência artificial (IA) do Exército Brasileiro, alcançou o recorde de mais de 24.000 mensagens trocadas durante um período de 30 dias. O elevado número de engajamentos demonstra a capacidade do chatbot e a necessidade de informações sobre a pandemia do coronavírus.

O soldado Max, graças ao aprendizado constante, está com a assertividade muito próxima a 75%. A precisão das respostas deverá se aproximar de 80% com o novo design de conversação, que será lançado em breve, e garantirá a sonhada promoção à graduação de cabo.

A pandemia do coronavírus levou diversos usuários a entrarem em contato com o Max, em busca de informações sobre serviços ou notícias. Em face desse desafio, em menos de 48 horas, foi elaborado o “apronto operacional” de nossa IA, capacitando-a a dar as primeiras respostas. Atualmente, o atendimento sobre o impacto do coronavírus abrange três públicos distintos. O primeiro é a parcela da sociedade interessada em saber o que o Exército está fazendo para diminuir o impacto da COVID-19. O segundo público é o civil, do sexo masculino, entre 17 e 21 anos, e que está preocupado com prazos relacionados ao Serviço Militar, obtenção de documentação, apresentação e  juramento à Bandeira. O terceiro público é composto de militares inativos e pensionistas que possuem dúvidas relacionadas ao processo de recadastramento ou de prova de vida.

Basicamente, as respostas do soldado Max abrangem o Centro de Comunicação Social do Exército (CCOMSEx) e o Departamento-Geral do Pessoal (DGP), por intermédio da Diretoria de Serviço Militar (DSM) e da Diretoria de Civis, Inativos, Pensionistas e Assistência Social (DCIPAS).A agilidade no desenvolvimento de novos fluxos de diálogos só é possível porque a estrutura lógica do Max, que inclui a elaboração de contextos e intenções, é do próprio CCOMSEx. Isso possibilita um rápido “adestramento” do soldado Max, capacitando-o a cumprir novas missões.

Fonte: DEFESATV

Tecnologias de inteligência artificial utilizadas na saúde durante a pandemia de covid-19

Texto por Barbara Coelho Neves

(Foto: Pexels)

Reservados os deslumbramentos tecnológicos, a inteligência artificial (IA) tem tido um papel de significância na medicina e na saúde, e isso tem ganhado destaque na ampla mídia quando as primeiras iniciativas de apoio utilizando essa tecnologia começaram a aparecer na luta contra a pandemia. Entretanto, existe um longo caminho para que esta seja reconhecida como recurso do cenário médico. E, nesse sentido, a primeira coisa que achamos relevante considerar é que a IA não se trata de uma solução, mas sim uma ferramenta da solução em saúde.

Este breve artigo compreende que o conceito de inteligência artificial abriga machine learning, que, por sua vez, tem como capacidade mais específica a deep learning. Nesse contexto, suas ferramentas se destacam em meio aos processos de transformação digital. O professor Tomaso Poggio, do MIT, disse que estamos viabilizando este momento da IA porque já vivemos seu “boom” na década de 1960 e isso corroborou para os três fatores que permitem, hoje, a transformação digital: volume gigante de dados disponíveis, algoritmos com abordagens mais maduras e supercomputadores. A quebra de paradigma da IA está no fato de que passou a aprender com base em exemplos e feedbacks, e não mais pela explícita necessidade de programação, conforme abordado por Erik Brynjolfsson e Andrew Mcafee no livro The Second Machine Age.

Estamos frente a um movimento impulsionado por uma série de avanços tecnológicos que culminam em um momento oportuno. Qual a melhor fase para inovar que não aquela em que convergem as crises? A capacidade de inovação é o motor condutor para superar a crise durante e pós coronavírus (Sars-Cov-2), ou covid-19. A seguir, apresentamos algumas das tecnologias de IA com a intenção de entendermos cada uma delas no combate ao coronavírus.

Dados tabulares por IA

A inteligência artificial nos campos da saúde pode trabalhar associada à tabulação de dados em mineração (data mining), ou mineração de textos (text mining). O uso de data mining, combinado com algoritmos de machine learning, “pode auxiliar o especialista da saúde em momentos críticos que demandem decisões rápidas quando há uma deficiência dos recursos apresentados, por exemplo, imagens de baixa resolução”. (FERNANDES; CHIAVEGATTO FILHO, 2018, p.18.)

A partir do momento que a pandemia do coronavírus começou a se espalhar pelo globo, algumas iniciativas ganharam notoriedade, apresentando dados que pudessem ser utilizados por algoritmos de IA. Os algoritmos são pensados visando a maximização de uma solução, por serem criados com objetivos claros. Um exemplo é o projeto do hospital Johns Hopkins, que desenvolveu um Centro de Recursos do Coronavírus para coletar e apresentar dados atualizados da pandemia pelo mundo para que possam ser processados por outras soluções com o uso de inteligência artificial.

De acordo com informações disponíveis pelos organizadores do Mapa de Tendências do Coronavírus do Hospital Johns Hopkins, esse recurso foi elaborado por especialistas em saúde pública para ajudar a melhorar o entendimento do vírus, informar o público e breves formuladores de políticas a fim de orientar uma resposta, melhorar o atendimento e salvar vidas. A ferramenta serve de apoio à decisão para mitigar pandemias.

Há um grande corpo de pesquisa e dados em torno da covid-19. Com isso, o Kaglle apresenta várias iniciativas interessantes onde as pessoas podem compor conjuntos de dados para que sejam utilizados em aprendizado de máquina. No contexto da pandemia global da covid-19, o Kaggle lançou vários desafios para fornecer informações úteis que podem responder a algumas das questões científicas abertas sobre o vírus. É o caso da Previsão Global COVID-19, na qual os participantes são incentivados a ajustar dados mundiais para prever a evolução da pandemia, ajudando a determinar quais fatores afetam o comportamento de transmissão da covid-19.

Processamento de linguagem natural

As técnicas de processamento de linguagem natural (PLN) conferiram à inteligência artificial a oportunidade de utilizar essas ferramentas para extrair informações que estão inseridas em artigos científicos que tratam sobre a covid-19 e outras pandemias. Uma dessas iniciativas é a CiteNET. Nela, é possível pesquisar com base em PLN algum texto ou outros documentos relacionados ao coronavírus. Trata-se de uma base de dados que está em fase experimental, mas foi disponibilizada em março deste ano com o intuito de ajudar médicos e pesquisadores a encontrar produção científica ligada a pandemias.

Visão computacional

A visão computacional no combate à covid-19 possui ações centradas em análises de exames e diagnósticos processados por imagem. Como exemplo, alguns bancos de dados de imagens. O GitHub disponibiliza um banco de imagens para treinamentos, envolvendo técnicas de processamento de imagem, visão computacional e aprendizado de máquina. Disponibiliza também um repositório de dados sobre o coronavírus com informações visuais, alimentado pelos laboratórios do Hospital Johns Hopkins.

Data Life é uma iniciativa brasileira, uma das divisões da Data H. Trabalha em parceria com algumas entidades da área médica a partir do uso de um algoritmo de detecção de pneumonia em imagens de pulmões. O objetivo é a criação de um dataset que permita realizar a identificação de enfermidades em tomografias de pulmão.

Computação de alta performance

Recentemente, foi noticiado em meios de comunicação que algumas empresas, a exemplo da IBM, em conjunto com o Escritório de Política Científica e Tecnologia da Casa Branca e com o Departamento de Energia dos EUA, realizaram testes com computadores mega potentes para tentar decifrar possibilidades de cura da covid-19. Uma das ideias principais é responder se, com base na comparação de variações do mapa genético de outros vírus da família Sars, trata-se de uma mutação espontânea ou gerada em laboratório. Esse projeto leva o nome de Consórcio de Computação de Alto Desempenho COVID-19 e tem como aliado, também, outro supercomputador chamado Summit no combate ao vírus.

Curadoria digital e o controle de riscos na inovação

Diferente da mágica deslumbrante do cinema, aos poucos a sociedade vai percebendo que a inteligência artificial é muito mais um apoio à solução e precisa ser constantemente treinada para desempenhar o seu melhor. Esse processo é chamado de curadoria e, principalmente para aquelas aplicações que pretendem apresentar mais que perguntas e respostas, precisa se preocupar com a curadoria digital. O curador é quem treina a aplicação de IA. No Brasil, encontramos uma iniciativa de curadoria digital da ACIB, que está desenvolvendo seleção de conteúdo específico sobre o coronavírus a partir de notícias, informações, orientações e serviços divulgados com intuito de superar a crise.

Se devidamente controlado, sabemos que, onde há risco, pode haver oportunidade. Riscos como éticos, de cibersegurança, de automação excessiva e privacidade se inter-relacionam e flutuam nas ações que envolvem inovação tecnológica. Desde que esses riscos possam ser encarados como desafios, as ferramentas de inteligência artificial podem contribuir neste momento da pandemia e apontar novos caminhos para o pós crise da covid-19. Não como uma deusa, mas sim como recurso devidamente explorado tanto na medicina e na saúde quanto nos outros campos que, neste momento, também sofrem influências, a exemplo da economia e do trabalho. Assim, a curadoria, neste contexto, pode mitigar riscos e apoiar-se no conhecimento da IA pelos seus usuários.

***

Barbara Coelho é professora do ICI-UFBA, doutora em Educação, pós-doutora em Ciência da Informação e pesquisadora líder do Laboratório de Tecnologias Informacionais e Inclusão sociodigital (LTI Digital).

Fonte: Observatório da Imprensa

Inteligência artificial pode prever diagnóstico de covid-19

Inteligência artificial pode prever diagnóstico de covid-19

Algoritmos acertaram o resultado do exame em quase 80% dos casos, segundo estudo preliminar da Faculdade de Saúde Pública da USP

Inteligência artificial se mostra uma grande aliada na luta contra a covid-19 – Fotomontagem: Jornal da USP/Luana Franzão
Imagine a seguinte situação: um paciente chega ao pronto-atendimento do hospital reclamando de tosse, dores no corpo e cansaço. A sala está lotada de pessoas com sintomas parecidos. Após uma hora de espera, o paciente é avaliado pelo médico de plantão e encaminhado para coleta de sangue, swab de garganta e raio X pulmonar. A suspeita é de covid-19, mas o resultado do teste molecular de RT-PCR, necessário para confirmar o diagnóstico, está demorando dias para ficar pronto. O hospital está cheio, novos doentes não param de chegar, e o médico precisa decidir se faz a internação ou não, sem saber exatamente o que o paciente tem.É uma decisão difícil, especialmente num cenário de pandemia, e considerando que alguns casos de covid-19 podem evoluir rapidamente de sintomas leves de desconforto respiratório para quadros graves de pneumonia. Agora, imagine se esse médico — fictício, mas inspirado em situações reais — tivesse um aplicativo que pudesse lhe dizer, em questão de segundos, qual é a probabilidade desse paciente ter covid-19 e de ele vir a precisar de internação, necessitar de ventilação mecânica, ou até mesmo vir a óbito.É exatamente esse tipo de ferramenta, baseada em inteligência artificial, que pesquisadores da Faculdade de Saúde Pública (FSP) da Universidade de São Paulo (USP) estão desenvolvendo para ajudar os profissionais de saúde a lidar com a tempestade de emergências gerada pelo novo coronavírus. “O algoritmo não decidiria pelos médicos, mas ofereceria a eles um substrato para tomar decisões com mais respaldo e mais tranquilidade”, diz o pesquisador Alexandre Chiavegatto Filho, diretor do Laboratório de Big Data e Análise Preditiva em Saúde (Labdaps) da FSP.O primeiro desafio é ajudar no diagnóstico da doença, que é a informação mais importante que o médico precisa ter em mãos para encaminhar o paciente da forma correta. O teste de referência para diagnóstico da covid-19 é o molecular, de RT-PCR, mas ele depende de laboratórios especializados e reagentes importados (que estão em falta no mercado) para ser realizado, o que tem causado atrasos na realização dos exames.

Chiavegatto e sua equipe, então, resolveram checar se era possível fazer uma previsão confiável desse diagnóstico por meio de técnicas de inteligência artificial (mais especificamente, a técnica de machine learning, ou aprendizado de máquina), utilizando apenas informações que já são coletadas como procedimento de rotina nos hospitais: idade, sexo e exame de sangue (hemograma) dos pacientes. Deu certo. Um primeiro experimento foi feito com as informações de 235 pacientes adultos, atendidos com suspeita de covid-19 em um grande hospital particular de São Paulo, entre 17 e 30 de março — dos quais 102 (43%) tiveram o diagnóstico da doença confirmado por RT-PCR. Os pesquisadores usaram os dados de 70% desses pacientes para treinar os algoritmos, e depois desafiaram esses algoritmos a tentar “adivinhar” o diagnóstico dos outros 30%. O índice de acerto foi de 78% para diagnóstico positivo e 77%, para diagnóstico negativo.

É um índice baixo, se comparado ao de um RT-PCR (que chega próximo de 100%), porém mais alto do que o de muitos “testes rápidos” sorológicos que estão sendo comercializados (com índices de acerto abaixo de 50%); e que pode melhorar muito ainda, com a inclusão de mais dados, segundo Chiavegatto.

“Não é uma questão de tempo, é uma questão de dados”, diz o pesquisador. “O algoritmo tem fome de dados. Quanto mais dados você dá para ele, melhor ele consegue enxergar detalhes e modelar as particularidades de uma determinada situação.”

Parece mágica que um computador consiga prever o diagnóstico de uma doença viral com base em parâmetros tão simples quanto idade, sexo e hemograma, mas a beleza do aprendizado de máquina está justamente nessa capacidade de olhar para um grande volume de dados e enxergar correlações que são imperceptíveis ao olho humano. Os hemogramas usados no estudo tinham 13 parâmetros, como hemoglobina, plaquetas, leucócitos, células vermelhas e outros.

O estudo foi aprovado pela Comissão Nacional de Ética em Pesquisa (Conep) e Chiavegatto está fechando colaborações com hospitais de várias outras cidades (Ribeirão Preto, Porto Alegre, Curitiba, Juiz de Fora, Campina Grande e Belém do Pará) para ampliar a base de dados e, assim, “alimentar o algoritmo”. A técnica ainda não está sendo usada na prática em nenhum hospital, mas tem grande potencial para isso, segundo ele. “Queremos gerar produtos o mais rápido possível, para ajudar nesta pandemia e nas próximas”, ressalta. “Deixamos tudo de lado no nosso laboratório e estamos 100% focados nisso; de plantão, aguardando a chegada dos dados.”

Com a ampliação do projeto, os pesquisadores esperam testar três estratégias de aplicação dos dados, para ver qual funciona melhor: 1) algoritmos treinados individualmente para cada hospital (de modo a contemplar as particularidades clínicas e socioeconômicas da população atendida por eles); 2) algoritmos treinados em hospitais de grande porte e aplicados a hospitais de menor porte (que talvez não tenham pacientes de covid-19 suficientes para treinar seus próprios algoritmos); e 3) algoritmos treinados com um mix de dados nacionais e dos próprios hospitais.

Se a previsão de diagnóstico der certo, o próximo passo é tentar desenvolver algoritmos para prever desfechos cruciais de encaminhamento dos pacientes, como risco de internação em unidade de terapia intensiva (UTI), risco de necessidade de ventilação mecânica e risco de morte. Nesses casos, será necessário alimentar os algoritmos com outros dados de natureza clínica, como data de início dos sintomas, gravidade dos sintomas e presença de outros fatores de risco (comorbidades), como diabete e hipertensão. Mas a ideia, segundo Chiavegatto, é trabalhar sempre com dados que já são coletados dentro da rotina dos hospitais, “para não gerar nenhum trabalho adicional para os profissionais de saúde”.

“Vamos ver até onde conseguimos chegar com esses dados de rotina”, diz. “Queremos que isso seja aplicável ao SUS (Sistema Único de Saúde).”

Os resultados do primeiro experimento com diagnósticos de covid-19 foram publicados na medRxiv, uma plataforma de artigos científicos em formato preprint (ainda sem revisão por pares), como forma de disponibilizá-los imediatamente para análise da comunidade científica internacional, para depois serem submetidos a uma revista científica especializada.

Mais informações: e-mail alexdiasporto@usp.br, com o professor Alexandre Chiavegatto Filho

Fonte: Jornal da USP

As limitações da inteligência artificial no enfrentamento da covid-19

A falta de acuidade das previsões impacta negativamente a abordagem do combate à epidemia e o tratamento dos infectados

Texto por Dora Kauffman

As limitações da inteligência artificial no enfrentamento da covid-19 (Foto: Chan2545 via Getty Images)

No livro “Os Sertões” (1902), marco da literatura brasileira, o escritor e jornalista Euclides da Cunha narra a sangrenta Guerra de Canudos no interior da Bahia, liderada por Antônio Conselheiro. O livro expõe de forma realista a vida dos jagunços e dos sertanejos. Descrevendo o cotidiano no acampamento de Canudos, o escritor cunha uma expressão muito apropriada aos tempos atuais: “A vida normaliza-se naquela anormalidade”. A covid-19 implicou em violações inimagináveis às liberdades individuais: o direito de circular pelas ruas das cidades, agora regulado pelo poder público. Provavelmente, até o final do ano teremos “quarentenas intermitentes” (libera/flexibiliza, aumenta a contaminação, retrocede) e um cenário econômico volátil. Nessa vida suspensa, parte das expectativas está depositada nas tecnologias de inteligência artificial (IA).

Enquete realizada pelo Aspen Institute da Alemanha, em recente Live, indicou os campos com maior potencial para a IA no combate a epidemia: 36% em rastreamento (aplicativo de monitoramento de movimentação), 22% no desenvolvimento de vacinas e 20% na previsão de propagação do vírus. No campo da ética, 42% dos desafios estão no gerenciamento de recursos hospitalares e na triagem de pacientes e, empatados com 21%, o reconhecimento de imagem e os aplicativos de rastreamento.

Pressionados pela urgência, pesquisadores mundo afora estão empenhados em criar modelos para detectar a contaminação, prever a evolução de pacientes contaminados, identificar grupos de risco e descobrir vacinas e medicamentos.

Existem, atualmente, 115 estudos de vacina contra a covid-19 acontecendo no mundo, sendo 78 registrados e 5 já em testes clínicos; nessa semana, a BioNTech e a Pfizer aprovaram junto à autoridade reguladora alemã – Paul-Ehrlich-Institut -, o ensaio clínico de fase 1/2 do programa compartilhado de vacinas BNT162 da BioNTech; essa fase inclui testes em cerca de 200 indivíduos saudáveis com idades entre 18 e 55 anos com o objetivo de determinar a dose ideal, além de avaliar a segurança e a imunogenicidade da vacina. No entanto, segundo o biólogo Atila Iamarino, no melhor cenário as vacinas estarão disponíveis em meados de 2021 (tempo recorde comparado com o desenvolvimento da vacina da Ébola, por exemplo, que demorou cinco anos).

Parte dos estudos publicados, contudo, não observou as regras científicas, ou seja, não foi revisado por outros especialistas (“revisão por pares”). Em 31 de março, um grupo de pesquisadores europeus publicou uma análise crítica na conceituada revista científica britânica British Medical Journal – “Prediction models for diagnosis and prognosis of covid-19 infection: systematic review and critical appraisal”– identificando inconsistências nos resultados de 31 modelos utilizados em 27 estudos: “Todos os modelos relataram desempenho preditivo bom à excelente, mas todos foram avaliados como tendo alto risco de viés devido a uma combinação de relatórios inadequados e conduta metodológica deficiente para seleção dos participantes, descrição do preditor e métodos estatísticos utilizados”, ponderam os pesquisadores europeus.

Foi identificado alto risco de viés em todos os modelos, o que questiona a confiabilidade de suas previsões: as amostras de pacientes utilizadas não representavam a população-alvo dos modelos, ou eram relativamente pequenas (poucos dados em modelos de machine learning podem funcionar em previsões mais simples, como prever a batida de falta sem barreira num jogo de futebol, onde parte das variáveis é conhecida); ademais, apenas um estudo utilizou dados coletados de pacientes fora da China (impacta negativamente a acurácia do modelo por conta, dentre outros fatores, das diferenças entre os sistemas de saúde dos países)

Segundo a análise “como esperado, nesses primeiros estudos com modelos de previsão relacionados à covid-19, os dados clínicos de pacientes contaminados ainda são escassos e limitados à dados da China, Itália e registros internacionais. Com poucas exceções, o tamanho da amostra disponível e o número de eventos para os resultados de interesse foram limitados”. Os estudos, igualmente, não foram transparentes com relação as etapas dos testes. Essas e outras falhas prenunciam que as previsões são, provavelmente, menos assertivas do que os relatos.

Os modelos estatísticos de previsão têm uma limitação intrínseca que é o fato de prever o futuro com base em dados do passado (inferências de tendências passadas). Essa limitação não ocorre quando se trata de modelos preditivos com séries não temporais – Computer Vision, PNL, e outros sistemas fechados -, mas é uma questão real em modelos de série temporais em tempo real (caso da epidemia da covid-19). A falta de acuidade das previsões impacta negativamente a abordagem do combate à epidemia e o tratamento dos infectados (procedimentos, remédios e vacinas).

covid-19 confirmou que a inteligência artificial é a tecnologia mais promissora do século XXI, mas, simultaneamente, alertou para suas limitações. Como todos os modelos estatísticos de probabilidade, seus resultados indicam apenas a probabilidade de algo acontecer (e quando); no caso dos modelos de aprendizado de máquinas/ redes neurais (deep learning) a variável “dado” é um componente sensível do modelo (quantidade, diversidade, qualidade), e onde reside a principal causa das falhas detectadas nos modelos analisados, função, dentre outros fatores, (a) do crescimento exponencial da contaminação; (b) do período de contaminação relativamente curto; (c) da trajetória da contaminação variar por país e por região em função das medidas adotadas, do clima, do comportamento da população; e (d) dos métodos de contabilização de pacientes positivos e mortes não serem universais.

O coronavírus está sendo chamado de “acelerador de futuros”. Visivelmente, a COVID-19 está acelerando o avanço da IA, incluindo o melhor entendimento de suas ainda muitas limitações.

*Dora Kaufman é pós-doutora COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais” (2017), e “A inteligência artificial irá suplantar a inteligência humana?” (2019). Professora convidada da FDC e professora PUC-SP.

Fonte: Época Negócios

Como a inteligência artificial está ajudando no combate à Covid-19

A AI está sendo usada para conter a disseminação do vírus e aliviar os sistemas de saúde

REDAÇÃO

Inteligência artificial está ajudando no combate ao coronavírus (Foto: Pexels/Reprodução )
Inteligência artificial está ajudando no combate ao coronavírus (Foto: Pexels/Reprodução)

inovação vem, em grande parte, dos momentos de necessidade. Com a pandemia do novo coronavírus, a Inteligência Artificial vem proporcionando invenções que contribuem para o combate à Covid-19. O portal Entrepreneur listou quatro maneiras pelas quais a tecnologia está contribuindo para tornar nosso mundo mais seguro durante esse período. Confira:

1. Prevendo a propagação da doença

Uma das maiores preocupações das autoridades de saúde é alta trasmissibilidade do coronavírus. Apesar da comprovação de que o vírus é transmitido facilmente entre as pessoas, alguns países demoraram muito a adotar medidas de contenção, como fechamento de fronteiras e isolamento social.

Mas Israel está lidando com isso a partir da tecnologia. Por meio de um formulário e de um sistema de pesquisa que utiliza a inteligência artificial, os cidadãos respondem questões importantes, como sintomas de saúde e práticas de isolamento que vêm adotando.

Em seguida, as respostas são combinadas com um algoritmo baseado na localização de cada um. Dessa maneira, é possível identificar possíveis focos de contaminação pela Covid-19 com antecedência, auxiliando as autoridades locais a adotar medidas que retardarão a transmissão.

2. Auxiliando centros de suporte ao paciente

Com o alerta da contaminação, é comum que hospitais estejam sobrecarregados, visto o grande número de pessoas que procuram o sistema de saúde. Graças aos assistentes virtuais incorporados a sites e aplicativos, os profissionais que dão suporte a pacientes tiveram sua carga de trabalho reduzida. Essas ferramentas são desenvolvidas especialmente para solucionar questões relacionadas ao novo coronavírus.

Um exemplo é o Hyro, assistente virtual gratuito que está sendo oferecido a organizações e insituições de assistência médica dos Estados Unidos para auxiliar no gerenciamento das chamadas e dúvidas sobre a Covid-19. O sistema responde perguntas frequentes sobre o novo coronavírus e orienta as pessoas com base em informações da Organização Mundial da Saúde e do Centro de Controle de Prevenção de Doenças dos EUA.

3. Combantendo as fake news

Com o avanço da pandemia, cresceram também as ondas de fake news espalhadas por meio das redes sociais: mensagens que subestimam os riscos da doença e informações falsas sobre a adoção da quarentena, por exemplo, são constantes. As fake news podem contribuir para a disseminação do pânico e até levar a população a tomar medidas que prejudiquem a saúde.

Ainda que o capital humano seja usado no combate às notícias falsas, muitos estão trabalhando em home office e há risco de que ocorram erros na supervisão das informações. É aí que entra a inteligência artificial, que consegue fazer uma ronda e melhorar a qualidade do conteúdo disseminado.

Jacob Kastrenakes, do The Verge, diz que o YouTube dependerá mais da inteligência artificial para moderar vídeos durante a pandemia do coronavírus, já que muitos dos revisores humanos estão sendo enviados para casa para limitar a propagação do vírus. “Isso significa que os vídeos podem ser retirados do site apenas porque são sinalizados pela AI como potencialmente violadores de uma política. Ao mesmo tempo, eles são encaminhados para um revisor humano, que confirma a suspensão”, explica.

4. Identificando pacientes doentes

Um dos principais desafios no combate ao novo coronavírus é, segundo o Guardian, o fato de que muitas pessoas apresentam sintomas leves muito semelhantes aos de um resfriado comuns — e outras são até assintomáticas. Isso faz com que, sem saber, os pacientes transmitam o vírus infectando outras pessoas.

A inteligência artificial, ainda que lentamente, já está mudando isso. Na China, um algoritmo que funciona a partir da visão de computador foi desenvolvido para medir a temperatura da população em espaços e sinalizar qualquer pessoa que apresente febre leve. Outro algoritmo da IA ajuda médicos a determinar com mais precisão se o paciente realmente tem chances de estar com a Covid-19 ou com uma pneumonia comum.

Em Washington, nos Estados Unidos, robôs foram usados para fornecer consultas e tratamento remoto para impedir que haja contaminação entre médicos e pacientes, quando o caso não for grave.

Fonte: Pequenas Empresas & Grandes Negócios

Inteligência Artificial no Judiciário: quem alimenta os algoritmos racistas?

Tecnologias digitais de comunicação e a ideologia do Vale do Silício são ‘racializadas’, pois reforçam a produção de um imaginário social racista

Sistemas alimentam-se de informações da mídia digital e reproduzem preconceitos. E os direitos, em vez de protegidos, são atacados

Texto por Paola Cantarini

A Inteligência Artificial (IA) vem sendo utilizada cada vez mais na solução de casos jurídicos. Mas quem controla e se responsabiliza pelos algoritmos no caso de respostas racistas, machistas, sexistas ou discriminatórias? Sabe-se que a discriminação socioeconômica, racial ou de gênero vem ocorrendo de forma frequente na utilização do sistema de IA, em especial em casos jurídicos, envolvendo dados obtidos por meio da mídia digital.

O fato é que as tecnologias digitais de comunicação e a ideologia do Vale do Silício são ‘racializadas’, pois reforçam a produção de um imaginário social racista. Vincula-se a essa questão a problemática da dimensão ética e moral da automação e digitalização, envolvendo a incorporação aos sistemas inteligentes de valores humanos (machine ethics).

Questiona-se: o desenvolvimento indiscriminado, desvinculado de uma fundamentação superior, ética e moral do Direito em sua aplicação por meio da Inteligência Artificial pode indicar o fim da humanidade? E no caso de um dano a um ser humano produzido por Inteligência Artificial quem se responsabiliza? O Direito sendo a expressão da “humanitas” pode ser aplicado de forma legítima por meio da IA?

Willis S. Guerra Filho, em artigo denominado A crise autoimunitária da nova ordem internacional trabalha com a questão da imunidade no Direito, sendo este tema objeto de estudos por diversos filósofos e pensadores da mais alta estirpe, tais como J. Derrida, Roberto Esposito, entre outros. Trata-se, em suma, de uma espécie de crise alérgica, quando o Direito, ao invés de proteger seus membros, seus direitos humanos e fundamentais, os ataca.

Vivemos na época das imagens técnicas, na era da superficialidade, do fetichismo do virtual, e ao tentarmos sair da redução dos conceitos, aprisionados que estávamos na linguagem, caímos em uma prisão ainda pior, mais alienante e por isso mais perigosa, por se fazer crer que seja real aquilo que nem mais representação poderia ter, já que ainda mais distante da realidade.

Verifica-se no Direito o predomínio da técnica e do pensamento meramente científico e cartesiano, positivista, e de um modo geral a robotização e a mecanização do pensamento, reduzindo-se a realidade jurídica a fórmulas matemáticas, a um simulacro. Revela-se aqui uma crise de paradigmas no Direito e a necessidade de uma transmutação, a fim de encontrarmos alternativas a uma possível morte do homem e da história, sendo esta uma condição da nossa possibilidade de existência, ante a nossa substituição por máquinas e robôs.

Sobre a autora: advogada, professora universitária e artista plástica. Pós-doutora em Ciências Sociais pelo CES – Universidade de Coimbra; pós-doutoranda em Ciências Sociais-PUC-SP. Doutora em Direito pela PUC-SP. Doutora pela Universidade do Minho – Braga-Portugal. Doutora em Filosofia do Direito pela Universidade de Salento – Lecce-Itália

Fonte: Rede Brasil Atual

Quais são os desafios éticos da inteligência artificial

by Marcello Pinsdorf

IA trouxe conjunto único de desafios éticos / Pixabay
IA trouxe conjunto único de desafios éticos / Pixabay

Vivemos um tempo de rápidas mudanças tecnológicas, no qual quase todos os aspectos de nossas vidas dependem de dispositivos que computam e se conectam.

O aumento exponencial resultante do uso de sistemas ciberfísicos transformou a indústria, o governo e o comércio.

Além disso, a velocidade da inovação não mostra sinais de desaceleração, principalmente porque a revolução na inteligência artificial (IA) tenta transformar ainda mais a vida cotidiana por meio de ferramentas cada vez mais poderosas para análise, previsão, segurança e automação de dados.

Como ondas passadas de extrema inovação, como é o caso, o debate sobre o uso ético e os controles de privacidade provavelmente proliferará.

Até agora, a interseção entre IA e sociedade trouxe seu próprio conjunto único de desafios éticos, alguns dos quais foram antecipados e discutidos por muitos anos, enquanto outros estão apenas começando a vir à tona.

Por exemplo, acadêmicos e autores de ficção científica há muito tempo ponderam as implicações éticas de máquinas hiperinteligentes, mas apenas recentemente vimos problemas do mundo real começarem a surgir, como o viés social nas ferramentas automatizadas de tomada de decisão ou as escolhas éticas feitas por carros autônomos.

Riscos e dilemas éticos

Marcello Pinsdorf, da BlackBerry Cylance / Divulgação
Marcello Pinsdorf, da BlackBerry Cylance / Divulgação

Nas últimas duas décadas, a comunidade de segurança se voltou cada vez mais para a IA e o poder do aprendizado de máquina (ML, na sigla em inglês) para colher muitos benefícios tecnológicos, mas esses avanços obrigaram os profissionais de segurança a navegarem por um número proporcional de riscos e dilemas éticos ao longo do caminho.

Como líder no desenvolvimento de IA e ML para segurança cibernética, a BlackBerry Cylance está no centro do debate e é apaixonada por aprimorar o uso da IA ​​para sempre.

Desse ponto de vista, conseguimos acompanhar de perto a progressão técnica da IA ​​enquanto observamos simultaneamente o impacto social mais amplo da IA ​​da perspectiva de um profissional de risco.

Acreditamos que a comunidade de segurança cibernética e os profissionais de IA têm a responsabilidade de avaliar continuamente as implicações humanas do uso da IA, tanto em geral quanto nos protocolos de segurança, e que, juntos, devemos encontrar maneiras de construir considerações éticas em todos os produtos e sistemas baseados em IA.

Este artigo descreve algumas dessas dimensões éticas iniciais da IA ​​e oferece orientação para nosso próprio trabalho e o de outros profissionais de IA.

A ética das decisões baseadas em computador

As maiores fontes de preocupação com o uso prático da IA​​ estão relacionadas à possibilidade de as máquinas falharem nas tarefas das quais são encarregadas.

As consequências do fracasso são triviais quando a tarefa é jogar xadrez, mas os riscos aumentam quando a IA é encarregada de, digamos, dirigir um carro ou pilotar um avião que transporta 500 passageiros.

De certa forma, esses riscos de falha não são diferentes dos das tecnologias estabelecidas que dependem da tomada de decisão humana para operar.

No entanto, a complexidade e a percepção de falta de transparência subjacentes às maneiras pelas quais a IA toma suas decisões aumentam as preocupações com os sistemas executados pela IA porque parecem mais difíceis de prever e entender.

Além disso, o tempo relativamente curto em que essa tecnologia foi usada mais amplamente, somado à falta de entendimento do público sobre como, exatamente, esses sistemas movidos a IA operam, aumenta o fator medo.

A novidade de um computador tomando decisões que podem ter consequências fatais assusta as pessoas e grande parte desse medo gira em torno de como esses sistemas equilibram preocupações éticas.

Considere um exemplo do mundo real: a sociedade se acostumou a acidentes de carro resultantes de erro humano ou falhas mecânicas e, apesar das melhorias regulamentares e técnicas para reduzir o perigo inerente a acidentes de carro, agora os aceitamos sem questionar como parte do risco geral de dirigir.

Alarmes públicos

Os acidentes causados ​​por falhas de IA, entretanto, despertam consideravelmente mais alarmes públicos do que aqueles causados ​​por tipos mais tradicionais de falhas humanas ou mecânicas.

Tomemos, por exemplo, o furor do primeiro caso conhecido de um carro sem motorista que matou um pedestre.

Parece que o computador determinou tarde demais que o carro estava prestes a atropelar o pedestre, mas ele poderia ter tirado o carro da pista para evitar a colisão?

O computador favoreceu a segurança do passageiro em detrimento do pedestre?

E se fossem dois pedestres? E se fossem crianças?

E se o computador enfrentasse a opção de colidir com um dos dois pedestres?

O que um motorista humano faria diferente do software baseado em IA quando confrontado com essa decisão de frações de segundo?

Parte do alarme sobre esse acidente também resulta de temores de que sua causa afete outros veículos autônomos e uma ampla gama de atividades ligadas à IA.

Por exemplo, as condições da estrada fizeram dessa ocorrência um acidente que nenhum sistema humano ou de computador poderia ter evitado?

Foi uma falha na IA desse sistema de navegação específico ou em todos os sistemas de navegação baseados em IA?

A tecnologia de IA envolvida em um carro sem motorista é altamente complexa, o que faz com que esse teste seja mais difícil que o das peças mecânicas do carro.

Sensor mecânico

Sabemos o suficiente para quantificar adequadamente os riscos antes que essa tecnologia seja lançada em escala global?

O acidente fatal do voo 610 da Lion Air oferece outro exemplo educativo.

O acidente parece ter sido causado por um erro no sensor mecânico, que levou o sistema de computador da aeronave a forçar o nariz para baixo.

Os pilotos humanos parecem ter puxado o nariz de volta repetidamente antes de perderem o controle.

O fato de esse incidente envolver um computador tomando uma decisão falha e removendo o controle dos pilotos levanta preocupações além daquelas suscitadas por uma falha puramente mecânica.

A tragédia seria a mesma se tivesse sido o resultado de, digamos, falha do motor, mas suscitaria considerações éticas diferentes em termos de ação e falha.

Além disso, presumivelmente estaríamos mais aptos a quantificar o risco de o acidente se repetir por uma falha mecânica do que no caso de um complexo sistema de IA.

Exemplos como esses destacam a importância de garantir que os sistemas dependentes de IA sejam bem testados e construídos de maneira suficientemente transparente para permitir uma avaliação adequada dos riscos corridos pelos usuários finais desses sistemas.

O que isso significa na prática depende, em grande parte, da finalidade para a qual a IA está sendo empregada.

É necessário prestar bastante atenção ao dano potencial que pode resultar da falha em uma determinada tarefa, bem como à complexidade do sistema e até que ponto essa complexidade aumenta a incerteza nas estimativas da probabilidade de falha.

Os profissionais de risco precisarão considerar trocas entre transparência e eficácia, entre transparência e privacidade, entre a possibilidade de substituição humana e a eficácia geral da decisão da IA, visto que todas dependem do uso contextual da IA em qualquer configuração.

Privacidade e consentimento

A rápida adoção da IA e o seu uso generalizado nos últimos anos também suscitam consideráveis preocupações com a privacidade.

Os sistemas de IA dependem, cada vez mais, da ingestão de grandes quantidades de dados para fins de treinamento e teste, o que cria incentivos para as empresas não apenas manterem grandes bancos de dados expostos ao roubo, mas também coletarem ativamente informações pessoais excessivas, para aumentar o valor desses bancos de dados.

Também cria incentivos para usar esses dados de maneiras que vão além daquilo que o proprietário dos dados inicialmente consentiu.

De fato, em sistemas complexos de IA, pode ser difícil saber com antecedência exatamente como qualquer dado será usado no futuro.

Essas preocupações estão ligadas à proliferação geral e ao armazenamento indefinido dos dados coletados, com uma porcentagem crescente desses dados emitidos como “escape” de sistemas ciberfísicos, como a internet das coisas (IoT, na sigla em inglês).

Esses medos são exponencialmente aumentados pelo fato de que a IA deriva o melhor valor de grandes conjuntos de dados e é cada vez mais capaz de detectar padrões únicos que podem identificar novamente os dados que se acredita serem anonimizados.

Invasores cibernéticos

As preocupações são ainda mais acentuadas pela crescente capacidade dos invasores cibernéticos de exporem esses grandes conjuntos de dados que deveriam ser protegidos – uma tendência que acompanha a diminuição da eficácia das soluções de segurança tradicionais baseadas em assinatura.

Tais preocupações acrescentam novas dimensões às leis de privacidade de dados que os líderes em segurança cibernética e risco devem considerar ao ajudarem as organizações a navegarem na integração da IA.

A boa notícia, nesse caso, é que a tecnologia baseada em IA pode, de fato, ser usada para aprimorar a privacidade, se instalada e configurada corretamente como parte da estratégia geral de defesa em camadas de uma empresa.

Em contraste com outras ferramentas de análise, a IA geralmente é mais para usar dados adequadamente anonimizados e aprender com eles. O hash de recursos, quando os dados usados ​​para treinar um sistema de aprendizado de máquina são alterados pela primeira vez através de um algoritmo de hash, é uma transformação irreversível que torna os dados inúteis para análise por seres humanos, mas ainda legíveis pelos sistemas de IA para detecção de padrões.

O hash de recursos pode tornar a análise baseada em IA mais eficiente, reduzindo a dimensionalidade dos dados, tornando o processo mais protetor da privacidade do que poderia ser.

Viés e transparência

Voltando à questão da ética, o potencial dos sistemas de IA para exacerbar a desigualdade social por meio de tomada de decisão discriminatória ou arbitrária (geralmente causada pelo uso de conjuntos de dados limitados para treinamento) também se tornou uma fonte recente de preocupação pública.

À medida que agências e tribunais governamentais se voltam cada vez mais para sistemas baseados em IA, para ajudar e aprimorar a tomada de decisões humanas, incluindo decisões que alteram a vida, como sentenças criminais e determinações de fiança, tornou-se aparente que preconceitos sociais podem involuntariamente se transformar em sistemas baseados em IA através de seus algoritmos ou nos dados de treinamento nos quais esses algoritmos se baseiam.

Também está se tornando aparente que alguns desses sistemas de IA estão sendo intencionalmente tendenciosos para ocultar resultados arbitrários ou injustos por trás de um verniz de objetividade e rigor científico.

Avaliação de risco

Um estudo recente da ProPublica de pontuações de avaliação de risco baseadas em IA usadas para decisões de fiança no Condado de Broward, na Flórida, ilustra o ponto.

Ao comparar as pontuações de risco à conduta subsequente dos acusados, a ProPublica mostrou não apenas quão pouco confiáveis ​​as pontuações eram, mas também quão tendenciosas eram contra os afro-americanos.

As pontuações erroneamente indicaram os réus afro-americanos como futuros criminosos com quase o dobro da taxa porque falsamente não identificaram os americanos brancos como tal.

É importante ressaltar que as referências ocorreram mesmo que o sistema não tenha perguntado explicitamente sobre raça.

Em 2013, a Imigração e Alfândega dos EUA (ICE, na sigla em inglês) começou a usar em todo o país uma ferramenta automatizada de avaliação de riscos para ajudar a determinar se deve deter ou libertar não cidadãos durante o processo de deportação.

Inicialmente, recomendou a liberação em apenas 0,6% dos casos.

Em 2017, o ICE modificou silenciosamente a ferramenta para recomendar a detenção em todos os casos. Isso veio à tona apenas por meio de uma investigação da Reuters sobre decisões de detenção em 2018.

Reconhecimento facial

O perigo desses tipos de uso discriminatório e arbitrário da IA ​​é aumentado com a disseminação de ferramentas de reconhecimento facial baseadas na IA por autoridades e em outros contextos, incluindo salas de aula e carros.

Um estudo realizado por pesquisadores da ACLU e da U.C. Berkeley descobriu que o software de reconhecimento facial da Amazon classificou incorretamente 28 membros do Congresso como tendo registros de prisão.

Além disso, a taxa de falsos positivos foi de 40% para membros não brancos, em comparação com 5% para membros brancos. O subcampo do reconhecimento suscita ainda mais preocupações.

Uma das lições claras a serem tiradas desses exemplos é a importância de tornar os sistemas de tomada de decisão baseados em IA mais transparentes para o usuário final ou administrador encarregado de comprar, instalar e supervisionar esses sistemas.

Informações sobre algoritmos e dados de treinamento devem estar disponíveis para inspeção sob demanda e os sistemas devem poder registrar e exibir objetivamente os padrões lógicos por trás de suas decisões.

Além disso, a auditoria regular é claramente importante pois os vieses internos só podem se tornar aparentes à medida que os sistemas são usados e os dados que eles coletam e armazenam se expandem.

Essas auditorias exigirão que profissionais de segurança e de IA criem uma ponte entre vários domínios do conhecimento, a fim de permitir e apoiar atividades de supervisão eficazes.

Protegendo-se contra o uso malicioso da IA

Por fim, vem a dimensão da preocupação ética que coloca o maior medo no coração dos profissionais de segurança e do público: o uso da IA para fins maliciosos.

As preocupações começam com os ataques a sistemas de IA benignos para fins maliciosos, mas se estendem ao uso estratégico da IA pelos invasores para subverter as defesas cibernéticas.

Ao obter acesso a um sistema baseado em IA – ou mesmo aos dados nos quais esse sistema é treinado –, um invasor pode alterar potencialmente a maneira como o sistema funciona para que se torne prejudicial.

Um mundo em que tudo, de carros a implantes cardíacos e redes elétricas, depende da IA ​​e está conectado a uma rede é um mundo em que os ataques cibernéticos se tornam cada vez mais ameaçadores à vida.

Além disso, quando a IA determina o fluxo de notícias personalizadas e outras informações, atores mal-intencionados podem minar a confiança da sociedade no governo e na mídia em grande escala – um cenário que é muito comum hoje em dia.

Uma das maiores preocupações públicas em torno do lançamento de qualquer nova tecnologia poderosa é que, uma vez que a caixa de Pandora é aberta, se essa invenção é para o bem da humanidade ou foi projetada para causar seu prejuízo, não há como colocar essa nova tecnologia de volta na caixa.

Uma vez fora, na natureza, ela chega para ficar – e se a sociedade vai melhorar ou piorar só poderá ser determinado por um monitoramento cuidadoso e consistente ao longo do tempo.

Segurança baseada em IA

A tecnologia de segurança baseada em IA provou ser mais eficaz do que a tecnologia tradicional (como produtos antivírus que dependem de assinaturas geradas por seres humanos), mas desde que os profissionais de segurança têm acesso a essa tecnologia de ponta, o mesmo acontece com as pessoas com intenções maliciosas.

A prevenção do uso mal-intencionado da IA exige que os profissionais de segurança dobrem seu compromisso com os fundamentos da segurança, garantindo a confidencialidade, a integridade e a disponibilidade dos sistemas baseados em IA.

Novamente, esses compromissos exigirão maior grau de transparência na aplicação da IA nos níveis algorítmico e de código, para garantir que o crescimento futuro aconteça de maneira aberta e responsável.

Além disso, à medida que os profissionais de segurança examinam os sistemas quanto aos tipos de problemas mencionados antes, como falha operacional, privacidade e viés algorítmico, eles precisam considerar como os atores de ameaças distorcem ou ampliam os riscos para atingir seus fins.

Os profissionais de segurança também devem se lembrar de que os atores de ameaças procuram continuamente maneiras de aproveitar seus aplicativo pessoais de IA para aumentarem a eficácia de seus ataques.

O surgimento de ataques cibernéticos baseados em IA, como o DeepLocker, prejudica ainda mais os métodos tradicionais de segurança cibernética, dificultando a criação de defesas adequadas que não dependem da IA.

Riscos na segurança cibernética orientada por IA

No final da década de 1890, quando os primeiros carros a vapor passeavam pelas ruas à velocidade máxima de 20 quilômetros por hora, ninguém suspeitaria que, poucas décadas depois, seus descendentes tornariam obsoleta a carruagem puxada a cavalo.

Em contrapartida, muito antes da disseminação e da integração global da IA ​​em todas as esferas da vida, os profissionais de segurança reconheceram que as soluções tradicionais de segurança cibernética estavam se tornando cada vez mais ineficazes e antiquadas.

Em face da proliferação de ataques automatizados, os avanços na produção e na distribuição de malware e das superfícies de ataque cada vez mais vulneráveis ​​de organizações que dependem de computação em nuvem e redes com vários endpoints, o crescimento descontrolado e, muitas vezes, não regulamentado no setor de tecnologia, nas últimas décadas, criou cada vez mais vulnerabilidades de segurança cibernética, expandindo exponencialmente a superfície de ataque de empresas conectadas globalmente, fornecendo ferramentas maliciosas a atores mal-intencionados.

Felizmente, a maioria dos profissionais de segurança reconhece que os ataques cibernéticos alimentados por IA podem ser frustrados pela segurança alimentada por IA e estão atualizando continuamente suas defesas para enfrentar esse desafio.

Também é uma sorte que os líderes em segurança cibernética tenham reconhecido que a proteção efetiva de sistemas automatizados precisa ser guiada pela IA, para que os defensores fiquem sempre um passo à frente dos atacantes.

Dados seguros

Reduzir o risco na adoção da IA ​​exige, portanto, avanços na segurança cibernética baseada em IA, junto com a expansão e a adoção dessa tecnologia por muitos setores da indústria e do governo, para difundir seu uso.

Os atacantes que usam ferramentas baseadas na IA para manipular a segurança cibernética baseada em IA como, por exemplo, reconhecer códigos ou comportamentos benignos como maliciosos, danificam tanto o sistema que a ferramenta de segurança estava protegendo quanto a reputação pública da IA.

Em outras palavras, um primeiro passo prático para garantir o futuro da IA ​​implica primeiro garantir que os sistemas de segurança cibernética baseados em IA e qualquer dado de treinamento que eles usem esteja seguro.

Embora grande parte da supervisão ética da IA ​​dependa da transparência dentro do ecossistema de segurança, a cibersegurança baseada em IA é outra área em que a transparência pode entrar em conflito, em certa medida, com a eficácia das soluções.

As vantagens de tornar o código aberto nesse contexto podem ser superadas pelo risco de exploração subsequente por agentes maliciosos; da mesma forma, onde os dados de treinamento e teste são fornecidos, há óbvias preocupações com a privacidade em torno da abertura desses dados, conforme discutiremos a seguir.

As apostas na eficácia da segurança cibernética exigem que os administradores de TI e usuários similares do setor recebam informações suficientes sobre como a segurança é implementada e como foi testada, a fim de tomar decisões informadas sobre seu nível de risco na concessão de acesso a esses dados.

Construindo organizações éticas de segurança cibernética

É improvável que o risco de a tecnologia de cibersegurança baseada em IA tomar decisões antiéticas seja tão grande quanto o de classificar atividades maliciosas de palavras reais, como está ocorrendo agora na China, por meio de um controverso sistema de crédito social experimental projetado para classificar pessoas com base em seus dados pessoais e públicos.

No entanto a cibersegurança baseada em IA tem o potencial de excluir o acesso de indivíduos ou grupos a sistemas de computador de maneira discriminatória ou arbitrária.

As mesmas lições a esse respeito que se aplicam a outros sistemas baseados em IA também se aplicam à cibersegurança: o que não é 100% transparente está aberto a falhas não intencionais e uso indevido.

Ao mesmo tempo, a cibersegurança baseada em IA também tem a capacidade de tornar outros sistemas de tomada de decisão baseados em IA mais seguros, protegendo-os de ataques maliciosos.

A cibersegurança baseada em IA pode ser usada para melhorar a privacidade de indivíduos e empresas, mas também cria incentivos para os criadores de tais sistemas coletarem e usarem dados sem consentimento informado, de modo que a tendência a se comportar mal deve ser combatida o tempo todo pela organização com precauções técnicas.

O risco de decisões discriminatórias ou arbitrárias tomadas pela IA sempre estará presente como resultado dos recursos de autoaprendizagem desses sistemas e, portanto, sempre exigirão auditorias humanas regulares para garantir que indivíduos e grupos não sejam excluídos do uso ou de proteções da privacidade do sistema.

Abertura e transparência

No fim das contas, nossa chamada à ação é clara: a IA desempenha um papel vital e benéfico na sociedade e na segurança, mas implantá-la no mundo real requer atenção cuidadosa aos detalhes por parte daqueles que a implantam e um cuidadoso equilíbrio de abertura e transparência por parte de quem a cria e fornece.

Embora a segurança baseada em IA possa montar uma defesa altamente eficaz contra ataques cibernéticos como parte de uma estratégia de defesa em camadas, é preciso tomar cuidado o tempo todo para garantir que os dados dos sistemas e do treinamento sejam suficientemente transparentes, a fim de permitir que usuários e administradores se informem para tomar decisões precisas sobre níveis de risco aceitáveis.

Embora muitos dos pontos descritos aqui sejam, em grande parte, diretrizes técnicas, eles dependem da criação de estruturas de prestação de contas e de uma cultura organizacional focada na ética para garantir que sejam implementados de forma eficaz.

Fonte: inova.jor

O protagonismo da inteligência artificial no combate à covid-19

Com base nos dados, os modelos de IA dão suporte para decisões médicas, agregando velocidade e precisão, dois elementos valiosos numa crise dessa dimensão

DORA KAUFMAN*

3D Interativo global futurista exibindo o coronavírus e o conceito de surto de covid-19 (Foto: MR.Cole_Photographer via Getty Images)

O protagonismo da inteligência artificial no combate à covid-19 (Foto: MR.Cole_Photographer via Getty Images)

Um Graffiti em Hong Kong vaticina “Não podemos voltar ao normal, porque o que era normal era exatamente o problema”. A covid-19 escancarou as deficiências do mundo, a desigualdade se tornou assustadoramente visível colocando a sociedade diante de vários dilemas. Ainda é cedo para prever como será o mundo pós coronavírus, qual será o grau e a extensão dos impactos na economia, na sociedade e na vida dos indivíduos. Provavelmente, não transitaremos pelos espaços públicos com a mesma desenvoltura anterior a epidemia.

A ciência está em alta, principalmente a ciência apoiada nas tecnologias digitais. Nesse cenário, destaca-se o protagonismo da inteligência artificial (IA); seus algoritmos são treinados para entender as “regras” tornando-se aptos à realizar previsões com maior velocidade e acurácia. A eficiência dos modelos depende da quantidade e qualidade dos dados de treinamento; no combate à covid-19, proliferam iniciativas para compor e disponibilizar grandes bases de dados. O propósito é identificar padrões não visíveis, indício, dentre outros eventos, da probabilidade de contaminação.

A China e a Coreia do Sul utilizam tecnologias de rastreamento para identificar pacientes contaminados, adotadas posteriormente em vários países. Nos EUA, pesquisadores do MIT (Massachusetts Institute of Technology) desenvolveram uma tecnologia de rastreamento de infectados pela covid-19 por meio do celular. O aplicativo “Private Kit” mapeia os contatos pessoais entre os usuários (“rastreamento de contatos”) visando antecipar potenciais áreas de contaminação.

Para preservar a privacidade, os dados coletados são anonimizados impossibilitando a individualização (o rastreamento é realizado sem o conhecimento ou permissão explícita do usuário). A equipe do MIT está em negociação com a OMS (Organização Mundial da Saúde) e com o Departamento de Saúde e Serviços Humanos dos EUA; o desafio é conquistar ampla adesão, acumulando uma extensa base de dados (um dos caminhos é através de alianças, a primeira foi firmada com a Clínica Mayo). O projeto do MIT ganhou a adesão de engenheiros do Facebook (doação de tempo gratuito). Em paralelo, o Facebook e o Google estão cooperando com uma força-tarefa da Casa Branca na análise de outras tecnologias de rastreamento e localização para mitigar a epidemia.

Os sistemas inteligentes são igualmente úteis em processos de triagem para (a) estimar o número de leitos necessários nos hospitais, (b) avaliar a prioridade de pacientes em Unidade de Terapia Intensiva (UTI), e (c) determinar a priorização de pacientes na UTI para o uso de aparelhos de ventilação pulmonar.

Com base nos dados, os modelos de IA dão suporte para decisões médicas, agregando velocidade e precisão, dois elementos valiosos numa crise dessa dimensão. Outra aplicabilidade da IA relacionada ao covid-19 são os robôs autônomos, treinados para executar tarefas específicas nos centros de saúde tais como (a) desinfectar áreas e (b) entregar materiais e medicamentos.

No Brasil, como no mundo, instituições e profissionais de saúde estão colaborando no enfrentamento da epidemia. Um consórcio, por exemplo, formado por hospitais, grupos de saúde e empresas de tecnologia, com a participação do Hospital das Clínicas de São Paulo, está testando um algoritmo de IA para diagnóstico com base na análise de imagens de tomografia de pulmão; um grupo de 450 radiologistas brasileiros, de instituições públicas e privadas, se organizou para compartilhar informações sobre IA.

Pesquisadores do Hospital Renmin da Universidade de Wuhan, da Wuhan EndoAngel Medical Technology Company e da Universidade de Geociências da China anunciaram um modelo de IA para detectar o vírus com 95% de precisão. A startup canadense DarwinAI e pesquisadores da Universidade de Waterloo desenvolveram a covid-Net de código aberto, uma rede neural convolucional criada para detectar a covid-19 em imagens de raios-x (Fonte: VentureBeat).

O Kaggle — comunidade online de cientistas de dados, fundada em 2010 e adquirida pelo Google em 2017 — propôs um desafio em torno de 10 questões-chave relacionadas ao coronavírus, incluindo perguntas sobre fatores de risco e tratamentos que não envolvem medicamentos, propriedades genéticas do vírus e esforços para desenvolver vacinas. Participam do projeto a Chan Zuckerberg Iniciative (instituição fundada por Mark Zuckerberg e Priscilla Chan com foco em projetos sociais) e o Centro de Segurança e Tecnologias Emergentes da Universidade de Georgetown (Fonte: Wired).

A comunidade científica mundo afora tem produzido uma quantidade inédita de artigos; desde dezembro, foram publicados mais de 2.000 artigos sobre a covid-19. O Processamento de Linguagem Natural (NLP – Natural Linguagem Processing), subárea da IA voltada à compreensão automática da linguagem humana, permite ler artigos científicos e extrair informações úteis em quantidade e velocidade inalcançáveis pelo ser humano, mantendo atualizados os profissionais da saúde e, consequentemente, acelerando a descoberta de tratamentos e/ou fatores de riscos desconhecidos. A canadense CiteNet, em face da covid-19, abriu seu sistema de consulta ao público, disponibilizando sua base de dados, continuamente atualizada, de pesquisas e literatura científica.

O enfrentamento de epidemias por meio de análise de dados não é novidade; a primeira experiência em larga escola ocorreu em fevereiro de 2008, quando os Centros de Controle e Prevenção de Doenças (Centers for Disease Control and Prevention) identificaram um crescimento de casos de gripe no leste dos EUA; na ocasião, o Google declarou ter detectado um aumento nas consultas sobre os sintomas da gripe duas semanas antes do lançamento do relatório. A partir dessa experiência, sua unidade filantrópica criou um sistema de alerta, o “Google Flu Trends”. A metodologia estabeleceu correlações entre a frequência de digitalização de certos termos de busca no Google e a disseminação da gripe ao longo do tempo e espaço, identificando regiões específicas em tempo real.

No caso da epidemia da covid-19, o primeiro alerta veio da canadense BlueDot, em 31 de março de 2019, quando detectou um nova forma de doença respiratória na região do mercado de Wuhan, na China (nove dias antes do primeiro comunicado da OMS – Organização Mundial da Saúde). Por meio de análise avançada de dados com tecnologias de IA (varrendo milhares de fontes: documentos de autoridades, publicações médicas, relatórios climáticos, cerca de 100 mil jornais por dia em 65 idiomas, postagens em redes sociais), seu software de risco identifica potenciais ameaças de doenças infecciosas capacitando governos, profissionais e empresas da área de salde; suas soluções rastreiam, contextualizam e antecipam riscos de epidemias.

A Missão OMS-China, num relatório de 40 páginas divulgado em março, documentou a relevância do Big Data e da IA na estratégia chinesa, particularmente no rastreamento de contatos para monitorar a propagação da contaminação, e no gerenciamento de populações prioritárias (idosos e/ou chineses com doenças prévias de risco).

A covid-19 transformou nosso cotidiano num filme de ficção científica; a devastação social não permite ver “o lado bom” da epidemia, mas é certo que teremos significativos avanços no campo da inteligência artificial, com novas descobertas e novas aplicações.

*Dora Kaufman é pós-doutora COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais” (2017), e “A inteligência artificial irá suplantar a inteligência humana?” (2019). Professora convidada da FDC e professora PUC-SP.

Fonte: ÉPOCA NEGÓCIOS

Como a inteligência tão humana é implementada fora do cérebro?

Imagem Reprodução: Revista USP

Os avanços e aplicações da inteligência artificial (IA) vêm propiciando grandes mudanças na sociedade. Para apresentar aos leitores a importância das pesquisas e resultados que estão sendo desenvolvidos, a Revista USP – publicação da Superintendência de Comunicação Social (SCS) da USP – lança o dossiê “Inteligência Artificial”, que reúne artigos de pesquisadores de diversas áreas do conhecimento. A revista está disponível na íntegra neste link.

“Hoje as aplicações e implicações da inteligência artificial são inúmeras. Os avanços na área estão cada dia mais presentes na indústria, na educação, nas finanças, na medicina”, observa o editor Jurandir Renovato. “Sua importância é tanta que a Universidade de São Paulo acaba de firmar uma parceria com a empresa IBM e a Fapesp para a criação de um centro de excelência para pesquisa em IA.”

A organização do dossiê é do professor Nestor Caticha, do Instituto de Física da USP. “Este conjunto de artigos lida com alguns aspectos não exaustivos, mas importantes para desvendar um pouco o que é inteligência artificial”, explica. O professor ressalta, no entanto, que, apesar da dedicação dos especialistas na elaboração do dossiê, ainda há muito para esclarecer sobre o tema. “O interesse em inteligência artificial pode, além de trazer soluções de mercado e competitividade econômica internacional, ajudar a olhar para o que significa ser humano. Esperamos que alguns assuntos sejam tratados, no futuro, nesta revista.”

“Hoje podemos observar artefatos artificiais que controlam investimentos, que interagem com clientes, fornecendo informações e sugerindo condutas, que detectam padrões em exames e até dirigem veículos.”

O futuro da pesquisa em inteligência artificial é abordado no artigo de Fábio Cozman, professor do Departamento de Engenharia Mecatrônica da Escola Politécnica da USP. “Embora o ser humano tenha um interesse antigo em artefatos artificiais com inteligência, consciência, sagacidade, humor e muitos outros aspectos normalmente ligados à cognição de alto nível, apenas na década de 50 esse interesse se tornou um programa científico concreto”, comenta. “Durante cerca de 50 anos a área de IA apresentou uma evolução marcada por períodos de euforia e depressão. Por exemplo, a década de 60 viu grandes promessas sobre a iminente programação de mestres de xadrez e especialistas em matemática, enquanto a década de 70 trouxe críticas aos resultados obtidos na área, um período frequentemente referido como o ‘inverno da IA’.”

O professor explica que os últimos dez anos, por outro lado, testemunharam um crescimento explosivo da inteligência artificial, em muitos aspectos até mais rápido do que pesquisadores da área previam na virada do século. “Hoje podemos observar artefatos artificiais que controlam investimentos, que interagem com clientes fornecendo informações e sugerindo condutas, que detectam padrões em exames, que dirigem veículos. Esse sucesso está sendo seguido com atenção pela imprensa, por governos e pela sociedade em geral. Quais são as perspectivas futuras para inteligências artificiais?”, questiona Cozman. “Não é fácil predizer como essa tecnologia irá evoluir a longo prazo, porém podemos examinar quais tendências são promissoras para a pesquisa em IA nos próximos anos. Os artefatos que emergirem dessa pesquisa contribuirão para a real evolução da área através da ação de empreendedores que conectem a fronteira de pesquisa com a prática, bem como através do debate social que levará a formas de regulação e difusão.”

Inteligência Artificial: Da Mecanização da Matéria e do Espírito ao Desenho e Construção Científica de Máquinas e Algoritmos, e do Estado Moderno como Máquina é o título do artigo de R. N. Chiappin, Jojomar Lucena, professores do Departamento de Economia da Faculdade de Economia, Administração e Contabilidade (FEA) da USP, e Carolina Leister, professora da Escola Paulista de Política, Economia e Negócios da Universidade Federal de São Paulo (Unifesp). O artigo se propõe a defender duas teses. A primeira é que há duas tradições para a pesquisa sobre inteligência artificial: uma remonta à tradição milenar das observações astronômicas, com a coleta e tratamento de dados, e a outra é a ciência moderna. A segunda tese é que a primeira e mais importante contribuição da pesquisa em inteligência artificial é a proposta, feita pelo filósofo inglês Thomas Hobbes (1588-1679), de desenhar o Estado como uma máquina autônoma, aproveitando os benefícios das máquinas de precisão para a industrialização da sociedade, e que esse modelo de Estado é o principal fator da Revolução Industrial.

“Estudos recentes mostram que a disseminação das técnicas de inteligência artificial irá alargar ainda mais a desigualdade entre as nações, fazendo com que o atraso nessa área se torne um caminho sem volta.”

Rumo a Uma Política de Estado para Inteligência Artificial é o artigo assinado por Raphael Cóbe, pesquisador do Núcleo de Computação Científica da Unesp, Luiza Nonato, doutoranda do Instituto de Relações Internacionais da USP, Sérgio Novaes, diretor científico do Núcleo de Computação Científica da Universidade Estadual Paulista (Unesp), e José Ziebarth, diretor na Secretaria Especial de Desburocratização, Gestão e Governo Digital do Ministério da Economia. Os especialistas esclarecem que os conceitos e ferramentas de inteligência artificial vêm conduzindo mudanças críticas em nossa sociedade. Destacam que a IA atualmente compreende diferentes áreas, que incluem aprendizado de máquina, visão computacional, processamento de linguagem natural, reconhecimento de padrões em imagens e robótica, entre outras.

Segundo informam, avanços recentes em IA têm viabilizado a criação e o aperfeiçoamento de aplicações que vão desde veículos autônomos, diagnóstico médico e assistência física aos deficientes e idosos até a segurança pública e indústria de entretenimento. As técnicas de IA, associadas à abundante quantidade de dados digitais e ao onipresente poder de processamento paralelo entregue pela computação na nuvem, deverão suprir a alta demanda pública por serviços digitais inovadores. “O caráter transversal da IA possibilita construir soluções que permitam lidar com uma ampla variedade de problemas, trazendo melhorias socioeconômicas significativas para a sociedade. Dada essa importância, devemos estar preparados para induzir políticas públicas eficientes que contemplem aspectos técnicos, éticos e de formação de recursos humanos para permitir que acompanhemos de perto o ritmo de países que atualmente lideram os desenvolvimentos das áreas.”

Esse artigo oferece uma visão geral das estratégias nacionais lançadas nos últimos anos, com o objetivo de ressaltar a importância de que o Brasil defina uma política pública para promover a adoção da inteligência artificial. Os especialistas ressaltam: “Estudos recentes mostram que a disseminação das técnicas de inteligência artificial irá alargar ainda mais a desigualdade entre as nações, fazendo com que o atraso nessa área se torne um caminho sem volta”.

“Se já descrevemos o cérebro usando relógios de água, moinhos de trigo, telégrafos, computadores digitais, agora temos outras metáforas”

“Ao longo da história da humanidade, os modelos mecânicos para o cérebro e a mente mudaram ao acompanhar o desenvolvimento tecnológico da época. Se já descrevemos o cérebro usando relógios de água, moinhos de trigo, telégrafos e computadores digitais, agora temos outras metáforas”, destaca Nestor Caticha, o organizador do dossiê, em seu artigo Representações Internas e Processamento de Informação em Redes Neurais.

“As redes neurais artificiais (RNA) ocupam hoje esse lugar privilegiado. Além de permitir modelos de cognição ou de sistemas neuronais biológicos, as RNA estão por trás da revolução tecnológica em curso”, esclarece o professor. “Porém, o objetivo deste artigo é mostrar em casos simples como funcionam as redes neurais, essencialmente revelando os ases dentro da manga, mas devemos conceder que as redes mais complexas ainda parecem magia até para seus criadores, pois a composição de muitos elementos simples pode gerar resultados inesperados.”

Capa Revista USP

Revista USP,
dossiê Inteligência Artificial,
edição número 124.

Publicação da Superintendência de Comunicação Social da Universidade de São Paulo, 134 páginas.

Preço: R$ 20,00, nas livrarias Edusp. Para download

A Inteligência Artificial no combate ao novo Coronavírus

Um dos campos mais avançados da computação é uma das principais armas contra o novo Coronavírus.

O potencial da tecnologia para superar desafios!

Nós da RECODE – uma organização focada no Empoderamento Digital, estamos acompanhando com particular atenção este momento de desafio.

O mundo se une e a humanidade se alinha na busca de uma solução, que em breve chegará, temos certeza na solução.

Observamos também o fundamental papel que a internet e a tecnologia vêm exercendo nestes dias de reclusão e respeito ao próximo. Estamos hiperconectados. O poder do mundo digital vem sendo nosso mantra e nossa bandeira há 25 anos. Acreditamos estar ali a porta para o conhecimento, entretenimento, intercâmbio e formação de um indivíduo socialmente responsável. Nesse momento, mais do que nunca, reforçamos nosso papel e nossa missão.

Todos os nossos cursos de tecnologia e empoderamento estão em funcionamento. Além disso, estamos lançando dois novos cursos: Inteligência Artificial e Internet das Coisas.

Lembrando que todos os cursos da RECODE são gratuitos!

Para acessar, basta clicar aqui e se cadastrar: www.plataforma.recode.org.br

Esse é um chamado também à nossa rede de 2500 educadores em todo Brasil. Em nossos Centros de Empoderamento Digital, oferecemos também as aulas presenciais. Pedimos que todas sejam suspensas até que as autoridades sanitárias assim sinalizem como seguro o encerramento do isolamento social. Pedimos que os esforços sejam concentrados na capacitação virtual, para aqueles que tenham condições e assim se sintam confortáveis.

A gente sabe que esses últimos dias não têm sido fáceis, mas queremos que vocês saibam que estamos abertos, operacionais e à disposição. Seguimos firmes.

Um grande abraço cheio de esperança,

Rodrigo Baggio

Fundador e presidente da RECODE

Fonte: RECODE

Inteligência computacional usa notícias da internet para prever casos de coronavírus

Pesquisadores da USP testam ferramentas de mineração de dados para prever a evolução da pandemia; método já foi explorado em aplicações nas áreas de agronegócio e educação

Interface do Websensors Analytics – Covid-19 [Clique na imagem para acessar a plataforma] – Foto: Reprodução/Websensors Analytics

Enquanto o novo coronavírus continua se espalhando pelo mundo, assistimos à proliferação de uma série de gráficos mostrando a evolução da covid-19 e curvas ilustrando o que poderá acontecer no futuro. Além de assustador, o cenário traz uma série de desafios adicionais para os cientistas da computação: como extrair conhecimentos úteis a partir dessa quantidade gigantesca de informações que circulam na internet sobre a pandemia, aproveitando os recursos tecnológicos que temos à disposição?

Esse é um desafio que já vem sendo enfrentado pelos pesquisadores do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, em São Carlos. Eles têm obtido bons resultados utilizando técnicas de inteligência artificial aplicadas à mineração de dados nas áreas de agronegócio e educação, por exemplo. Para isso, desenvolvem desde 2014 uma ferramenta chamada Websensors, que usa inteligência artificial para analisar eventos extraídos de textos de notícias, tais como informações sobre o que aconteceu, como, quando, onde e quem está envolvido.

Agora, estão empenhados em coletar eventos mencionando o novo coronavírus ou a doença covid-19. A meta é usar essas informações como conhecimento complementar para ser incorporado em modelos de previsão já existentes. Um exemplo é a previsão da curva de contaminação da pandemia, que pode ser ajustada considerando eventos sobre esse assunto. Além disso, esse conhecimento adicional será importante para apoiar especialistas na identificação futura de iniciativas bem-sucedidas e mal-sucedidas no combate ao vírus, o que terá grande utilidade nas próximas epidemias que enfrentaremos.

Solange Rezende é uma das coordenadoras do projeto e realiza pesquisas na área de mineração de eventos desde 2014 – Foto: arquivo pessoal

“Quando olhamos para a evolução futura da curva de contaminação de uma doença e levamos em conta apenas dados sobre contágios que aconteceram no passado, temos uma visão limitada do problema. Se for possível enriquecer essa visão, adicionando à previsão informações extraídas de fontes confiáveis, acreditamos que poderemos incrementar nosso olhar e, quem sabe, construir modelos preditivos mais próximos da realidade”, explica Solange Rezende, que coordena o projeto junto com o professor Ricardo Marcacini, ambos do Laboratório de Inteligência Computacional do ICMC. A iniciativa conta, ainda, com a participação de dois doutorandos, quatro mestrandos e três pesquisadores colaboradores, como Rafael Geraldeli Rossi, ex-aluno do ICMC que é professor na Universidade Federal de Mato Grosso do Sul.

Web, um poderoso sensor

Vamos imaginar que você encontrasse um viajante do tempo hoje que lhe perguntasse: qual a maneira mais rápida e confiável de compreender o que está acontecendo no mundo em tempo real? É provável que sua resposta fosse: entre na internet. Sim, de fato, é pela web que temos acesso a fontes de informações confiáveis e seguras de todo o mundo, em várias línguas. É por isso que muitos pesquisadores começaram a usar as informações da web da mesma maneira que já utilizamos sensores para medir, por exemplo, a temperatura, a umidade, a quantidade de chuva, a velocidade e a direção dos ventos em um lugar. São os dados captados por esses sensores ao longo do tempo – a variação da temperatura, umidade, chuva e vento – que possibilitaram aos cientistas construírem os modelos para prever o clima no futuro.

Ricardo Marcacini se tornou professor no ICMC no ano passado. Fez graduação, mestrado, doutorado e pós-doutorado no ICMC – Foto: arquivo pessoal

Ora, pense que as informações que circulam na web também podem funcionar como esses sensores e ajudar não apenas um viajante do tempo a compreender nossa realidade, mas também permitir que os pesquisadores desenvolvam novos modelos de previsão de futuro. “Isso acontece porque os computadores conseguem processar uma grande quantidade de informações e encontrar padrões no que aconteceu no passado e que poderá se repetir no futuro”, explica Marcacini.

No caso da covid-19, os links da web são captados por meio de uma plataforma internacional chamada GDELT. A seguir, os pesquisadores do ICMC coletam as notícias que se referem especificamente à doença ou ao coronavírus, desde que sejam provenientes de fontes confiáveis, e fazem um pré-processamento. Nessa etapa, utilizando várias técnicas, como as de processamento de linguagem natural, os textos são transformados em um conjunto de sinais. É como se houvesse uma tradução da linguagem humana para uma linguagem que as máquinas conseguem compreender.

Na sequência, esses sinais são inseridos no circuito de uma rede neural. Tal como no cérebro humano, em que os sinais que captamos por meio dos nossos sentidos vão sendo processados, a rede neural analisa as características extraídas dos textos coletados e dá um peso diferente a cada uma, de acordo com a maior ou menor frequência em que a característica surge na coletânea. É comparável ao trabalho que nossos neurônios realizam depois que os olhos captam várias imagens diferentes e vamos identificar o que há em comum entre elas. Mas lembre-se de que, nesse caso, estamos falando de encontrar padrões em uma gigantesca quantidade de textos, um trabalho impossível de ser realizado manualmente e que pode resultar em valiosos conhecimentos, como já demonstrado em vários estudos.

Em todo o globo, de 19 a 24 de março, a plataforma criada pelo grupo de pesquisadores do ICMC (http://websensors.net.br/projects/covid19) capturou um total de 26.713 eventos georreferenciados extraídos de notícias que citam a covid-19 ou o coronavírus. Esse processo de coleta é contínuo. Unindo essas informações aos dados de contaminação oficiais (coletados pelo Data Repository by Johns Hopkins CSSE), os cientistas elaboraram um modelo de previsão da curva de contaminação para os próximos sete dias (veja a seguir, em amarelo). Note que essa curva é mais acentuada do que a observada nos modelos epidemiológicos que consideram apenas os dados de contaminação (em verde). “Acrescentando os eventos, de fato há um ajuste para cima, com a previsão de mais casos, embora a gente precise fazer a ressalva de que ainda temos poucos dados no Brasil para validar estatisticamente essa análise preditiva”, pondera Marcacini.
.

Comparação de 10 diferentes execuções do modelo de predição adicionando eventos (linha amarela) e excluindo eventos (verde) em 24 de março – Foto: Reprodução/Websensors Analytics

Aplicação na agricultura e no combate à evasão escolar

Desde 2014, os pesquisadores do ICMC têm trabalhado para desenvolver o conhecimento e a tecnologia denominada Websensors que, hoje, está sendo utilizada no projeto da covid-19. Ao longo dos anos, vários estudos foram realizados com o apoio das principais agências de fomento à pesquisa do País.
Um dos desafios que têm mobilizado a equipe é explicar o comportamento passado e predizer o comportamento futuro da produtividade em agricultura e agropecuária no Brasil, que será uma das frentes de atuação do novo Centro de Pesquisa em Engenharia em Inteligência Artificial. A educação é outra área em que os pesquisadores do ICMC já desenvolveram aplicações premiadas usando conhecimentos e tecnologias sobre mineração de eventos. Em 2018, por exemplo, os pesquisadores criaram uma plataforma para analisar informações históricas sobre o comportamento virtual de estudantes com o objetivo de evitar o abandono dos cursos a distância.
Texto: Denise Casatti – Assessoria de Comunicação do ICMC/USP

Projeto revela o precariado que move a Inteligência Artificial

Obra de net art promove contato com trabalhadores da Amazon Mechanical Turk

“Um projeto artístico de pesquisadores do Inova USP acaba de ser lançado na Internet. Tem como foco os turkers, como são chamados os trabalhadores encarregados de treinar Inteligências Artificiais”, observa Giselle Beiguelman em sua coluna Ouvir Imagens, da Rádio Usp (clique e ouça o player acima). “Esses trabalhadores prestam serviços em plataformas como Amazon Mechanical Turk (Mturk), um dos principais sites de ofertas desse tipo de trabalho.”

A professora comenta que a Mturk conta com cerca de 500 mil trabalhadores. “Eles compõem um precariado global que trabalha nessas verdadeiras galés do mundo digital. Enquanto o salário mínimo por hora nos EUA é de cerca de 7,25 USD, os turkers são geralmente remunerados a cerca de dois dólares por hora trabalhada e induzidos a uma carga horária abusiva na tentativa de compor a renda mensal.”

No caso dos turkers brasileiros, Beiguelman ressalta que a situação se agrava, porque a Amazon não faz depósitos em contas estrangeiras e os trabalhadores são remunerados com gift cards, que só valem para compras na própria Amazon norte-americana. “O projeto, que é de autoria dos pesquisadores Bruno Moreschi, Bernardo Fontes, Guilherme Falcão e Gabriel Pereira, se chama Exchange with Turkers (Trocas com os Turkers) e mostra não só a presença humana por trás das Inteligências Artificiais, mas revela o cotidiano desses trabalhadores.”

Beiguelman ressalta: “Para funcionar de maneira autônoma, as Inteligências Artificiais precisam que sejam criados bancos de dados, que dependem da identificação e classificação de imagens, por exemplo, que alimentarão os sistemas inteligentes, como os das câmeras de Reconhecimento Facial que comentamos semana passada na polêmica do Metrô de São Paulo.”

No site Trocas com os Turkers, é possível conversar com cinco desses trabalhadores, dois deles brasileiros, que estão disponíveis 30 minutos por dia e são pagos a oito dólares por hora. “Há ainda um recurso reservado para que os turkers conversem entre si, o que é inédito, porque na Mturk eles não têm acesso a seus outros colegas de trabalho, o que impede a articulação da categoria em torno da regulamentação do seu penoso ofício.”

O site está disponível na plataforma aarea.co. “O projeto é das curadoras Marcela Vieira e Livia Benedetti, que há três anos comissiona obras de net art. Mas é bom saber que o a área não arquiva os trabalhos. As obras ficam disponíveis cerca de 20 dias e durante esse período o site se transforma na obra que está em cartaz.”

Mais informações: www.aarea.co

Fonte: Jornal da USP

O que a Inteligência Artificial pode fazer pelos editores

PUBLISHNEWS, FERNANDO TAVARES

Em seu artigo, Nando Tavares explica como os sistemas automatizados podem ajudar os editores e como utilizá-los da melhor maneira possível

Não se engane. Inteligência Artificial (IA) não é apenas mais um buzz word. Ela chegou para ficar e está transformando o modo como nos relacionamos com as informações. Textos e falas são fontes de dados e o mundo editorial precisa entender como utilizar esta tecnologia.

Como você está se preparando para isto?

Talvez o título correto deste post deveria ser: o que os editores podem fazer com a Inteligência Artificial. Isto porque ela não é um monstro e nem uma entidade que vive por si só (ao contrário do que a literatura de ficção nos ensinou!) mas é sim, uma ferramenta tecnológica, como tantas que já possuímos e outras que irão surgir. O diferencial é que ela pode nos ajudar com aquelas tarefas, chatas e repetitivas, que roubam nosso tempo e criatividade. Ela facilita nossas vidas e é capaz de trazer insights úteis analisando uma quantidade imensa de dados (o tal big data). Estas informações nos ajudam a entender tendências, comportamentos, organizar dados e entender melhor o mundo ao redor de nós de uma forma que não conseguiríamos fazer sem ela.

Então, Inteligência Artificial não é um botão mágico que resolve tudo. É uma área de estudo; um software; um programa; uma ferramenta que nos ajuda a trabalhar melhor.

Mas afinal, o que entendo por inteligência artificial? Existem muitas definições, mas a minha preferida é a que afirma que a Inteligência Artificial é a teoria que estuda e desenvolve sistemas computadorizados, capazes de executar tarefas que normalmente requerem uma inteligência humana, como por exemplo percepção visual, reconhecimento de fala, tradução, decisões e compreensão de texto.

Outra definição bem semelhante é a de Richard Bellman que em 1978, definia a Inteligência artificial como: Automatização de atividades que associamos ao pensamento humano, como a tomada de decisões, a resolução de problemas, o aprendizado. (Bellman, 1978)

Em geral é fácil confundir Inteligência Artificial com Aprendizagem de Máquina (Machine Learn). Esta última é na realidade uma sub-área da Inteligência Artificial, e se caracteriza por ser o estudo de algoritmos e modelos estatísticos que sistemas computadorizados utilizam para realizar uma tarefa específica sem instruções explícitas, baseando-se em padrões.

O tema é bem amplo, mas vou simplificar focando em apenas uma área da Inteligência Artificial (IA) que pode impactar muito o mercado editorial: a NLP (Natural Language Processing) ou em português Processamento de linguagem Natural (PLN).

Esta é a área da IA que estuda sobre a habilidade do computador de entender, analisar, manipular e potencialmente criar linguagem humana. Portanto, tem tudo a ver a com manipulação, análise, compreensão e criação de livros.

Sei que para um editor/autor a primeira coisa que vem em mente é a ideia de que o computador irá substituir o autor, ou algo assim, mas não é este o foco principal do Processamento de Linguagem Natural (NLP). Como já falei, ele é um modo de extrair informações de texto, manipular formatos, e sim, até criar informações textuais que nos ajudem em tarefas práticas.

Chatbots

O Processamento de Linguagem Natural pode ser utilizado para criar chatbots “inteligentes” que ajudam no atendimento, 24 horas por dia, das demandas dos clientes/leitores. É uma tecnologia utilizada por muitas empresas, quem nunca recebeu um telefonema de um robozinho cobrando ou pedindo informações?

Estes softwares (ao menos os mais sofisticados), utilizam o Processamento de Linguagem Natural para analisar as frases e encontrar as respostas mais adequadas. É um campo em constante desenvolvimento e que irá fazer ainda muitos progressos. Existem muitas pesquisas na área, como por exemplo, algumas dedicadas a ensinar o computador a entender ironia em textos. Apesar dos progressos, a linguagem humana é muito complexa e ainda os resultados não são dos mais brilhantes.

Porém, quando bem construídos os resultados de um chatbot são muito bons: a título de exemplo basta citar o Alexa, ou o Google Assistant.

Um chatbot pode, por exemplo, ajudar no marketing da editora. Na realidade esta é a área onde são mais utilizados atualmente. Não faltam sites que ajudam você a criar o seu próprio chatbot sem conhecer linguagem de programação.

Um bom chatbot pode interagir com os fãs de um livro ou de um autor, levando informações úteis e inteligentes em tempo real. É possível inclusive criar chatbots que permitam conversar diretamente com os personagens de uma série, de um livro ou criar uma narrativa interativa como a proposta pelo Authorbot. Enfim, são ferramentas úteis no trabalho de divulgação e engajamento com o público leitor.

Obvio, não existe milagre, portanto estes chatbots precisam ser bem construídos, com um bom planejamento, dedicação e tempo.

Metadados e análise de textos

A chave para que um livro seja descoberto no mundo on-line, são os metadados e todo editor sabe o quanto é importante manter atualizadas estas informações. Sabemos também da dificuldade em fazer isto, data necessidade de empresas especializadas, como a Metabooks e outras.

Neste âmbito um algoritmo de inteligência artificial pode analisar o texto e gerar automaticamente as melhores tags, ou aquelas que melhor atingem a audiência desejada. Inclusive é possível fazer com que o computador classifique automaticamente o texto e te ajude a encontrar a melhor categoria BISAC ou Thema para o livro.

A análise de texto, em especial a chamada análise de sentimentos, pode ser aplicada na classificação dos reviews dos livros, nos comentários deixados pelos leitores ou nos tweets postados, trazendo assim dados sobre os temas mais comentados no momento, ou sobre os sentimentos que estão sendo suscitados por um título/livro/temática. A análise destes comentários pode ser feita em minutos enquanto a leitura por um humano levaria muito, muito mais tempo (e paciência).

Ainda dentro da área de classificação de textos, grandes editoras recebem continuamente manuscritos de autores novos e a maioria deles não são lidos. Um sistema de Inteligência Artificial pode analisar estes manuscritos e descartar logo de início os que tenham plágio, sejam mal escritos (tecnicamente falando) ou não correspondam à linha editorial da editora. É possível comparar os textos com as tendências do momento indicando os que tem mais chances de ter sucesso nas vendas.

No setor de transformação de texto em fala, e portanto relacionada a livros acessíveis e audiobook, não podemos deixar de observar o quanto a Inteligência Artificial tem feito. Hoje utilizando um serviço como o Amazon Polly ou o Google Voice é possível ter a leitura de modo quase perfeito. Ah, uma curiosidade sobre chatbot que falam: quando você conversa com o teu assistente Google (ou Alexa, ou Siri), o computador transforma a tua voz em texto, analisa o texto e devolve a resposta em texto, que por sua vez é convertida em voz novamente.

Produção e automação

Esta é área pela qual mais me interesso. Neste campo a IA pode realmente fazer a diferença, sobretudo melhorando a qualidade técnica da produção dos livros.

A maior parte do processo de diagramação de um livro impresso ou de conversão para livros digitais, pode ser automatizada de modo eficiente, deixando para o diagramador somente o trabalho criativo. Quem nunca se deparou com o imenso trabalho repetitivo, de ter que importar para o InDesign um documento Word e aplicar manualmente a formação para depois ter que recomeçar o trabalho por algum erro ou troca de arquivo por parte do editor/autor? E se este processo tedioso fosse feito de modo automático, deixando para o diagramador/designer apenas o trabalho de criar um design significativo?

Melhorar o fluxo de produção é uma tarefa importante neste mercado, sempre mais competitivo e que está mudando rapidamente. É muito custoso produzir livros sem um fluxo de produção claro e eficiente. Editores, designers, diagramadores e autores: vamos trabalhar nisso.

Precisamos desfrutar as ferramentas que já possuímos e criar novas que utilizem os novos recursos tecnológicos para otimizar o trabalho editorial. Empresas estão investindo com iniciativas neste sentido não apenas na questão da produção, mas também na inovação que o mercado editorial pode oferecer utilizando os recursos de Inteligência Artificial.

A utilização de Machine Learn e de Inteligência Artificial na produção de livros digitais e/ou no processo editorial como um todo é uma tendência que vem crescendo no exterior. Inclusive alguns eventos estão abordando o tema como o Tech Forum, o EDRLAb, a Feira de Frankfurt.

O que tenho observado aqui no Brasil é que neste percurso de utilização de sistemas mais automatizados precisamos antes de mais nada criar e implantar uma cultura de processo de produção e uma cultura mais colaborativa entre as equipes, porque ao contrário do que todo mundo imagina, a Inteligência Artificial não vai roubar empregos. Existe uma grande falta de mão de obra qualificada e, em muitos casos as empresas não conseguem qualificar as próprias equipes. Mas este é tema para outra conversa.

Fonte: PUBLISHNEWS

Fake News, o lado obscuro da Inteligência Artificial

Nem só de objetivos benéficos vive a Inteligência Artificial. Ela pode também produzir desinformação e Fake News em seu lado obscuro.

Por 

O lado romântico da Inteligência Artificial – IA (Artificial Intelligence – AI), de humanitarismo, solidariedade e ações benéficas, está sendo abalado por um lado obscuro, sombrio e temeroso chamado ‘Fake News’.

Antes de mais nada, é necessário destacarmos os gigantescos benefícios da IA em diversas áreas do conhecimento humano, tais como saúde, educação, segurança e pesquisas científicas, proporcionando melhorias do dia a dia das pessoas.

Entretanto, uma empresa desenvolvedora de IA, a Big Bird, tem contribuído diretamente para mostrar o lado questionável da inteligência artificial, criando algoritmos para escrever notícias fictícias sobre política, cultura e ciência, por exemplo.

A empresa declara que seu algoritmo de IA tem como objetivo ajudar jornalistas a desenvolverem notícias mais rapidamente, afirmando que eles podem criar notícias em um tempo muito menor usando sua solução de inteligência artificial.

Contudo, a empresa Big Bird alerta aos jornalistas que desejarem usar o modelo de desenvolvimento de notícias da empresa, que devem remover os erros e limitações do algoritmo, completando o texto das notícias com informações reais, suprimindo as fictícias. Ao menos é o que deveria acontecer!

Por outro lado, o fato do conteúdo das notícias publicadas pela Big Bird serem bastante semelhantes a uma notícia real, pode ocorrer de alguma notícia fictícia se espalhar e se transformar em desinformação.

Fake News da IA

O lado inquietante da IA está materializado no site https://notrealnews.net, como o próprio nome sugestivo diz ‘notícias não reais’, em uma tradução literal do inglês, onde a inteligência artificial é utilizada para desenvolver notícias fictícias como exemplificação do poder do algoritmo.

Por mais persuasivas, convincentes e concludentes que as notícias pareçam, grande parte de seus conteúdos não são verdadeiros, podendo se tornar uma grande fonte de desinformação jornalística, com riscos de serem consideradas Fake News (notícia falsa).

Nesse sentido, quando a IA está nas ‘mãos’ de organizações e pessoas com intenções e objetivos questionáveis, os resultados podem ser perturbadores e provocar apreensão social, profissional e individual.

Nos artigos ‘A Era do 3EX (EXposição EXtrema EXponencial) chegou rápido’ e ‘Menos privacidade e mais exposição: a realidade do 3EX’, discutimos sobre os riscos da manipulação de dados e informações nesse século.

A cada dia nossa exposição é maior em função da menor privacidade que temos em nossa vida, confirmando que a Era do 3EX (EXposição EXtrema EXponencial) está se tornando realidade, envolvendo as Fake News nesse contexto.

Ética, Tecnologia e IA

O método da Big Bird de gerar uma espécie de modelo “pré-escrito” de artigos jornalísticos, apresenta riscos à disseminação de informações falsas e divulgação e propagação de desinformação, podendo ocasionar riscos à saúde, economia e segurança das pessoas, empresas e governos.

Em um mercado onde se estima uma movimentação de U$ 3 trilhões, algo em torno de R$ 12 trilhões até 2022, a Inteligência Artificial deve atrair as mais diversas aplicabilidades, inclusive iniciativas com intenções duvidosas e objetivos questionáveis.

Os Jornalistas sabem que não existe nenhuma novidade na existência de notícias falsas, relatórios modificados, reportagens mal intencionadas, não verificadas e cheias de erros contudo, o problema cresceu exponencialmente com a evolução da tecnologia da informação e comunicação nas últimas décadas.

O Google e o Facebook como exemplos, tem concentrado esforços com a intensão de coibir e suprimir Fake News em suas páginas e servidores, corroborando o perigo real da desinformação on-line.

Podemos buscar alguma proteção das Fake News nos sites da Ethical Journalism Network e da Global Investigative Journalism Network, com dicas importantes de como manter atenção a coisas suspeitas: endereços estranhos, notícias sem autor e sem data, histórias publicadas em uma única página, entre outras.

Mais do que nos tornarmos vítimas das Fake News, devemos tomar cuidados extras para não nos transformarmos em propagadores delas!

51 —————————————————————————————————————————

Prof. Manfrim, L. R.

Compulsivo em Administração (Bacharel). Obcecado em Gestão de Negócios (Especialização). Fanático em Gestão Estratégica (Mestrado). Consultor pertinente, Professor apaixonado, Inovador resiliente e Empreendedor maker.

Explorador de skills em Gestão de Projetos, Pessoas e Educacional, Marketing, Visão Sistêmica, Holística e Conectiva, Inteligência Competitiva, Design de Negócios, Criatividade, Inovação e Empreendedorismo.

Navegador atual nos mares do Banco do Brasil, UDF/Cruzeiro do Sul e Jornal de Brasília. Já cruzou os oceanos do IMESB-SP, Nossa Caixa Nosso Banco (NCNB) e Cia Paulista de Força e Luz (CPFL).

Freelance em atividades com a Microlins SP, Sebrae DF e GDF – Governo do Distrito Federal.

Contato para palestras, conferências, eventos, mentorias e avaliação de pitchs: professor.manfrim@gmail.com.

▲ Linkedin – Prof. Manfrim

▲ Currículo Lattes – Prof. Manfrim

Fonte: Jornal de Brasília

Inteligência artificial e humana trabalham juntas no combate às fraudes online

Ramon de Souza

Texto por Andrea Rufino, gerente de marketing sênior da Emailage para a América do Sul.

Quando o assunto é o combate às fraudes em transações comerciais, as empresas buscam diferentes tipos de soluções para se protegerem, que vão desde a adoção de sistemas automatizados para detectar situações suspeitas na hora da venda até revisões manuais de dados de possíveis clientes durante o processo de aprovação de um cadastro.

O que ocorre, na maioria das vezes, é que as organizações concentram seus esforços em reduzir prejuízos, ao invés de buscar aumentar o faturamento. Isso pode ser um equívoco, pois é possível transformar estratégias de gerenciamento de fraudes em impulsionadoras de receita, aproveitando ao máximo a força de trabalho humana aliada à automação.

Posicionar o tema da prevenção de fraudes não como um item do centro de custo, mas como uma oportunidade de geração de receita, requer uma mudança de paradigma. Neste sentido, o intuito maior do gerenciamento de fraudes deveria deixar de ser o impedimento de transações comerciais para ser a aprovação das mesmas. Ao aumentar o número de transações aprovadas, o atrito com o cliente é reduzido e ele pode vivenciar uma experiência fluida e positiva.

As empresas, por sua vez, podem implementar estratégias de gerenciamento de fraudes que incluam tecnologias e inteligência humana para oferecer boas experiências aos seus clientes e, ao mesmo tempo, se protegerem dos fraudadores. Os algoritmos de inteligência artificial e machine learning (ou inteligência de aprendizado) não substituirão os gerentes e analistas de fraudes. As novas tecnologias, apoiadas pelo efeito de rede, são uma grande contribuição para que os humanos sejam mais eficientes e as estratégias de gerenciamento de fraudes gerem mais receita.

Mãozinha artificial

O machine learning pode ajudar a otimizar o trabalho das pessoas, que integram as equipes de análise de fraudes da seguinte maneira:

  • Detecção de padrão: identificação de nome ou endereço de e-mail vinculado a incidentes repetidos de fraudes;
  • Modelagem personalizada: análise de dados de vários setores e locais, o Machine learning pode ser usado para criar regras e modelos automáticos usando os padrões mais importantes para cada empresa;
  • Relatório de anomalias: apenas as transações mais suspeitas são identificadas para revisão manual, maximizando a eficiência do analista de fraudes.

Com o poder do big data, machine learning e inteligência de rede, as organizações que tiram vantagem dessa abordagem podem liberar os analistas de fraudes para fornecer uma experiência especializada que aprimora os programas de risco. Nessas organizações, o objetivo é aprovar mais transações e interromper o maior número possível de perdas por fraudes, criando as melhores experiências aos clientes.

Portanto, é possível combater as fraudes e melhorar a experiência do cliente simultaneamente. Para fazer isso, é necessário considerar uma equipe de gerenciamento de fraudes que cria modelos personalizados e projetados para maximizar a eficiência dos recursos humanos, investir na aprovação automática das transações comerciais dos melhores clientes e apostar na mudança da estratégia de gerenciamento de fraudes para uma que gere receita.

Fonte: The Hack

Deputado propõe criação de Lei da Inteligência Artificial

O deputado Léo Moraes (Podemos-RO) apresentou na semana passada o PL 240/2020, que propõe a criação da “Lei da Inteligência Artificial”. O parlamentar propõe, dentre outros objetivos, criar regras para a atuação da tecnologia no Brasil e delimitar diretrizes e princípios da política de inteligência artificial brasileira. Também pretende garantir segurança jurídica para o investimento em pesquisa e desenvolvimento tecnológico de produtos e serviços voltados para IA. O projeto ainda não teve o despacho da Mesa Diretora da Câmara designando suas comissões.

O projeto de Léo Moraes cria um leque de princípios que o uso da Inteligência Artificial deve seguir como a transparência, segurança e confiabilidade; a proteção da privacidade, dos dados pessoais e do direito autoral; e o respeito a ética, aos direitos humanos e aos valores democráticos. A tecnologia é objeto de inúmeras discussões nos espaços acadêmicos e esferas governamentais.

Outros pontos que o PL de Léo Moraes propõe apontam para que o uso da Inteligência Artificial tenha como diretrizes fomentar a capacitação de profissionais da área de tecnologia em Inteligência Artificial; o estímulo às atividades de pesquisa e inovação nas instituições de Ciência, Tecnologia e de Inovação; e a melhoria da qualidade e da eficiência dos serviços oferecidos à população.

O projeto também tem inspiração nas leis da robótica, do autor de ficção científica Isaac Asimov. O parlamentar entende que as soluções, programas e projetos da Inteligência Artificial não podem ferir seres humanos e nem serem utilizadas em armas de destruição em massa, ou como armas de guerra ou defesa; e todos os robôs e equipamentos derivados da Inteligência Artificial devem cumprir protocolos de Direitos Internacionais, de proteção à vida e aos Direitos Humanos.

“O processo de regulamentação, somado ao processo de fiscalização e controle que no caso brasileiro consiste em uma Política Nacional de Desenvolvimento da Inteligência Artificial e deve ser executada pelo Governo Federal, trata-se de uma política urgente diante da tantos desafios que já nos deparamos, necessitamos fazer com que as empresas sejam transparentes, no sentido de utilizar essa ferramenta de forma democrática e sustentável protegendo os empregos e direcionando as pesquisas para o desenvolvimento social, fazendo com que as forças do capitalismo, que focam apenas no lucro, se programem ao bem estar social unindo tecnologia e sociedade a um propósito construtivo”, diz o parlamentar na justificativa do projeto.

Estratégia Nacional de Inteligência Artificial

Em dezembro de 2019, o Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) abriu uma consulta pública para definir a Estratégia Nacional de Inteligência Artificial. O governo propôs uma discussão dividida em três eixos transversais (Legislação, regulação e uso ético; Governança de IA; e Aspectos internacionais) e seis eixos verticais (Educação; Força de trabalho capacitação; PD&I e empreendedorismo; Aplicação nos setores produtivos; Aplicação no poder público; Segurança pública).

Na introdução do documento da consulta pública, o MCTIC lembra que o Brasil aderiu à recomendação da OCDE sobre inteligência artificial, com uma série de diretrizes que devem servir de base para a Estratégia Nacional de Inteligência Artificial. Dentre elas, se destacam duas: 1) “A IA deve beneficiar as pessoas e o planeta, impulsionando o crescimento inclusivo, o desenvolvimento sustentável e o bem-estar”; 2) “Os sistemas de IA devem ser projetados de maneira a respeitar o Estado de Direito, os direitos humanos, os valores democráticos e a diversidade, e devem incluir salvaguardas apropriadas – por exemplo, possibilitando a intervenção humana sempre que necessário – para garantir uma sociedade justa.”

Observa-se que a proposta apresentada pelo deputado Léo Moraes regulamenta alguns pontos do documento apresentado para consulta pública do MCTIC.

Participação

Até o final de janeiro deste ano, a consulta pública aberta pelo governo federal para construir a Estratégia Nacional de Inteligência Artificial (IA) havia recebido 138 contribuições de 33 autores, dos quais apenas quatro assinam como entidades: Centre For Information Policy Leadership (CIPL); IEA/OIC/USP; Centro de Pesquisa em Direito, Tecnologia e Inovação (DTIBR); Clínica de Práticas e Pesquisa em Direito e Novas Tecnologias da UFMG. É uma participação pequena se considerada a importância do tema e o fato de o documento disponibilizado pelo governo ser composto por nove eixos de trabalho com dezenas de perguntas, muitas das quais ficaram sem resposta. Observando a baixa participação, o MCTIC prorrogou por mais um mês o período de participação, que será encerrado no dia 2 de março.

Fonte: Teletime

Inteligência artificial agiliza busca pela inovação em biblioteca

Na Faculdade de Odontologia da USP, projeto torna a biblioteca um ponto de partida para inovações nas diversas áreas do conhecimento

Biblioteca da Faculdade de Odontologia (FO-USP) onde vem sendo implementado o sistema CRAI – Foto: Marcos Santos/USP Imagens

Ao contrário de perderem importância, as bibliotecas ganham ainda mais com as novas tecnologias. Na Faculdade de Odontologia (FO) da USP, um projeto vem refinando as buscas por conhecimento por meio da utilização de um sistema de Inteligência Artificial (IA). Denominado Centro de Recursos de Aprendizagem e Investigação (CRAI), a iniciativa simplifica o caminho para se encontrar a inovação em qualquer área do conhecimento. Um software de IA, denominado provisoriamente como Minerador de Inovação, cruza informações e gera dados e relatórios sobre toda a produção científica catalogada numa determinada biblioteca. Um dos grandes diferenciais do Minerador é permitir a busca por termos da linguagem natural humana, e não só por palavras-chave, como é comum em sistemas de bibliotecas.

Moacyr Domingos Novelli: gerando mais conhecimento – Foto Marcos Santos/USP Imagens
O professor da FO Moacyr Novelli, que coordena o trabalho, diz que ele ainda não está de todo concluído, mas já pode ser utilizado. “Estamos desenvolvendo agora uma interface amigável que facilitará os processos de navegação da ferramenta”, informa o professor Celso Massatoshi Furukawa, da Escola Politécnica (Poli) da USP, que é parceiro do projeto CRAI. A coordenadora da Biblioteca da FO e doutora em Ciência da Informação Lúcia Maria Sebastiana Verônica Costa Ramos também integra a equipe de implementação.
Celso Massatoshi Furukawa, da Poli, que é parceiro do projeto CRAI – Foto: Marcos Santos/USP Imagens

A busca pela inovação com o uso da IA se dá pela utilização de uma série de ferramentas e conceitos de bibliometria. Para viabilizar o funcionamento do CRAI, o professor Novelli e sua equipe indexaram 60.400 teses de doutorado de toda a USP. Só da FO foram 1.600. “As teses de doutorado espelham toda a vocação da Universidade. É o documento mais confiável em termos do que a USP vem produzindo”, descreve o professor.

No Sistema Integrado de Bibliotecas (SiBi) da USP existe um acervo eletrônico de mais de 11 milhões de títulos, com informações digitalizadas de um acervo físico composto de mais de 8 milhões de títulos. O objetivo foi desenvolver um aplicativo para processamento desses dados e construir novos conceitos e ideias a partir da tabulação cruzada dessas informações”, descreve Novelli.

De acordo com o professor, com o software de IA haverá uma mudança nas rotinas de uma biblioteca, que servirá não só como local de busca e de registro de informações, mas apresentará possibilidades de interações, dados e textos aos usuários, gerando sugestões de inovações.

Envelhecer sorrindo

Mas de que maneira, por meio de tantas informações que constituem um acervo imenso como o de uma biblioteca, será possível detectar algum tipo de inovação? Na prática, o novo software minerador de dados vai gerar, a partir de uma pesquisa, informações cruzadas que permitam visualizar as ocorrências entre termos de uma busca.

Exemplificando: se o usuário buscar por “capim mombaça” e “celular android”, o minerador de dados apresentará um gráfico das teses de doutorado que tratam dos dois temas. Aparentemente distintos, certamente haverá ligações entre os termos e serão apresentadas pesquisas de diversas áreas do conhecimento. “À medida que as ligações se mostrarem cada vez mais distantes ou isoladas, significa que estamos diante de possíveis inovações”, descreve Novelli.

Com base nos resultados até o momento obtidos, vem sendo realizada no CRAI a articulação das informações de um serviço de extensão destinado a pacientes da FO da USP, a ONG Envelhecer Sorrindo.

Equipe do CRAI. A partir da esquerda: Celso Furukawa, Moacyr Novelli, Lúcia Ramos e Robson Brandão – Foto: Marcos Santos/USP Imagens

A iniciativa, que já existe há 20 anos, fornece atendimento multidisciplinar a idosos que necessitam de prótese total. O serviço vai desde atendimento odontológico, psicológico e fisioterápico até fonoaudiológico e nutricional. Segundo o professor Novelli, serão coletadas informações dos prontuários de pacientes, de imagens clínicas e de aparelhos protéticos. Esse material será articulado com os textos das teses da FO e de outras unidades da USP que tratem de temas correlatos. “Toda essas informações serão enviadas ao software de IA, que nos retornará dados que apontem para possíveis inovações”, descreve o coordenador.

Furukawa e Novelli já propuseram a implantação de um CRAI também na biblioteca Prof. Dr. Alfredo Gandolfo, que fica no prédio das Engenharias Mecânica, Mecatrônica e Naval, da Poli. Segundo Furukawa, a proposta é incluir serviços pedagógicos e recursos tecnológicos, com instrumentos e equipamentos que permitam aos alunos desenvolverem pesquisas próprias e explorar ideias inovadoras.

“A ideia é fazer da pesquisa científica um instrumento de formação e fomentar iniciativas inovadoras e empreendedoras dos alunos”, descreve o professor da Poli. Dentre diversas iniciativas propostas, está a criação de revistas estudantis para incentivar os alunos a publicarem os resultados de seus trabalhos e assim adquirir experiência na escrita de artigos técnico-científicos. “Na Poli já criamos a Mecatrone”, destaca Furukawa. A publicação eletrônica está hospedada no Portal de Revistas da USP desde 2015. A proposta é que o Minerador esteja disponível em todas as bibliotecas da USP quando estiver pronto, mesmo naquelas que ainda não utilizarem o sistema CRAI.

Fonte: Jornal da USP

Como a Inteligência Artificial transformou a segurança da informação?

Uma das grandes contribuições desse fenômeno tecnológico repousa na proteção de informações armazenados pelas empresas

Por Luiz Marcelo Penha*

Foto: Shutterstock

Cada vez mais sentimos os efeitos práticos da Transformação Digital no cotidiano empresarial. Isso se aplica em diversas frentes, desde ferramentas simplificadoras a sistemas de gestão organizacional. O conceito de Inteligência Artificial reflete diretamente nesses fatores, mas destaca-se igualmente como uma nova forma de se enxergar a segurança da informação.

Organizações de todos os tamanhos se deparam com um fluxo pesado de dados relativos a empregados e clientes, e um dos maiores desafios é garantir a integridade desse conteúdo a fim de evitar vazamentos e abordagens indevidas. Com a chegada da Lei Geral de Proteção de Dados (LGPD), a urgência do assunto aumentará consideravelmente.

No último panorama estabelecido pelo Relatório de Riscos Globais do Fórum Econômico Mundial, especialistas classificaram fraudes e ataques cibernéticos como um dos grandes males do cenário atual. Para companhias, essa insegurança pode ser determinante para o insucesso do negócio.

É possível se defender de ameaças digitais e evitar falhas críticas. Nesse artigo, explicarei o papel da Inteligência Artificial na missão de se criar um sistema de segurança informacional eficiente.

Afinal, como a IA funciona?

Quando cedemos ao imaginário popular, pensamos em Inteligência Artificial como robôs automatizados realizando tarefas de forma padronizada. Apesar de existir certa coerência nessa ideia, os processos que envolvem a terminologia são bem mais complexos e subjetivos.

Softwares e dispositivos que buscam desenvolver, com fidelidade, o raciocínio humano em sua maior essência. Na prática, as máquinas estão preparadas para aprender e retirar conclusões de informações disponíveis em suas memórias. É inegável a influência direta do avanço tecnológico como fator potencializador do uso da IA nas empresas. Com o tempo, encarou-se a alternativa como uma grande aliada em funções distintas, principalmente em termos de proteção e segurança.

Observar padrões de comportamento e identificar, através de análises assertivas, chances reais de ameaças e anormalidades. Com essa premissa, podemos nos aprofundar nos reais benefícios por trás da Inteligência Artificial.

Protagonismo na segurança da informação

Partindo para o campo de soluções de análise, a unificação de IA e segurança da informação tem se mostrado uma alternativa de valor para executivos que desejam implementar um sistema coeso de proteção de dados.

O valor informacional cresceu exponencialmente nos últimos anos. Trata-se de um ativo das empresas, e o nível de exigência, tanto do mercado consumidor, quanto do governo através de formatos regulatórios, acompanhou essa tendência. Os antivírus, que antes limitavam-se a identificar arquivos maliciosos compatíveis com registros anteriores, agora serão otimizados.

Com alto poder analítico, a Inteligência Artificial será responsável por examinar uma alta quantidade de dados, inofensivos e prejudiciais, a fim de formular um algoritmo sobre eles. Através do parâmetro criado, os sistemas de segurança terão facilidade em identificar potenciais riscos à infraestrutura interna. Há de se destacar que a IA também conta com o poder de aperfeiçoamento gradual, aprendendo com suas próprias projeções.

Porta de entrada para o Compliance

Uma cultura organizacional orientada a Compliance é um dos objetivos compartilhados pela grande maioria das empresas nacionais. Com o passar do tempo, evidencia-se a importância de uma política interna comprometida em respeitar normas vigentes e permanecer em harmonia com a lei. Isso têm relação direta com a implementação da Inteligência Artificial como pilar sistêmico.

Afinal, a segurança de uma organização vive interligada com a economia da mesma. Se uma falha crítica ocorrer, o prejuízo não refletirá somente na reputação, mas na saúde financeira como um todo. As ameaças são variadas e os efeitos, dependendo da gravidade do caso, podem desestabilizar um negócio.

A ocorrência de ataques cibernéticos e vazamentos de dados é real, cabendo aos líderes a oportunidade de utilizar de um olhar estratégico para transformar a perspectiva de segurança em suas empresas. E você? Sente que poderia melhorar esse aspecto em seu cotidiano empresarial? Participe desse debate e faça essa reflexão.

*Luiz Marcelo Penha é Co-founder e COO da Nextcode.

Fonte: CIO

Adoção de inteligência artificial no meio jurídico deve levar em conta normas de proteção de dados

Para especialistas, antes de contratar serviços de lawtechs e legaltechs, advogados devem observar se empresas estão de acordo com LGPD.

O Brasil tem atualmente 12,7 mil startups. Os dados são da Associação Brasileira de Startups e mostram um crescimento de 27% no número dessas empresas em relação a 2018, quando o país tinha 10 mil startups.

t

Que o mercado empresarial ligado à tecnologia está em alta não é novidade. E o número de startups tem crescido também no meio jurídico. É o que mostram dados do radar das lawtechs da AB2L – Associação Brasileira de Lawtechs e Legaltechs, segundo os quais há centenas de startups nesse segmento no país.

As lawtechs e legaltechs são dividas em 13 categorias: analytics e jurimetria; automação e gestão de documentos; compliance; conteúdo jurídico, educação e consultoria; extração e monitoramento de dados públicos; gestão de escritórios e departamentos jurídicos; inteligência artificial voltada para o setor público; redes de profissionais; regtech; resolução de conflitos online; taxtech; civil tech e real estate tech.

tSegundo o engenheiro Victor Rizzo, sócio e diretor de inovação da empresa e-Xyon Tecnologia, as lawtechs e legaltechs podem ser voltadas ao atendimento de pessoas físicas e de pessoas jurídicas, podendo existir lawtechs de diversos portes. Ele ressalta que essas empresas propõem uma transformação digital na área judicial, um ramo considerado “muito tradicional e artesanal”.

“Com essa transformação, estamos falando não somente de trazer ganhos de produtividade, eficiência, velocidade, redução de custos, mas fundamentalmente, em inovar e criar novos produtos e serviços que anteriormente eram impensáveis.”

A diretora de marketing da Aurum, Marcela Quint, afirma que hoje “é impossível advogar sem utilizar a tecnologia”, já que ela é exigida até mesmo nas interações mais simples da rotina jurídica, inclusive, no relacionamento entre clientes e advogados.

t

Marcela destaca que é comum advogados acharem que as tecnologias podem adicionar mais complexidade e caos ao trabalho. “De fato, podem existir pontos negativos caso a adoção da tecnologia não passe antes por uma reflexão do que é a prioridade do escritório.” 

Por isso, pontua que os advogados devem analisar quais as necessidades de seu negócio e como poder inserir a tecnologia em seu dia a dia de forma que ela venha a facilitar seu trabalho.

“Algumas perguntas que eu acredito que são importantes de serem feitas são: quais são as metas do negócio para o ano? O que impede você e o seu time de chegar lá? Se for tempo (geralmente é), com quais tarefas e processos você e o seu time gastam mais tempo? Geralmente o operador de direito chega em tópicos como: acompanhar processos, dar um retorno aos clientes, registrar os atendimentos. Todas essas demandas podem ser automatizadas, ou, no mínimo, muito otimizadas. E é aí que a tecnologia entra.”

Lawtechs e a proteção de dados

As novas normas relativas à proteção de dados pessoais, logicamente, também tendem a impactar no trabalho das lawtechs e legaltechs. Segundo o engenheiro Victor Rizzo, o estabelecimento de regras claras sobre o uso de dados para treinamento de algoritmos de inteligência artificial no mundo é essencial. “Existe uma mobilização no mundo por desenvolvimento de IA incorporando alguns princípios éticos. Temos que evoluir nisso, como sociedade.”

Marcela Quint também considera que as normas de proteção de dados devem impactar as lawtechs assim como qualquer outra tecnologia, dependendo do contexto e da necessidade a ser resolvida.

“Se o escritório usa uma solução de Analytics e Jurimetria, é importante entender perfeitamente como os dados são inseridos no programa e se esse fluxo está de acordo com a nova norma. Não estar de acordo, na minha opinião, é preocupante porque pode colocar o escritório numa posição bastante frágil”, explica.

Marcela também ressalta que os usuários devem procurar as empresas responsáveis pelos produtos de inteligência artificial voltados ao mercado jurídico para verificar se eles estão de acordo com a legislação.

“A minha dica é entrar em contato com a empresa e o produto contratado (ou com a intenção de ser contratado) e verificar se ela já está de acordo com a LGPD. Caso ainda não esteja, é importante perguntar por planos e prazos. Acredito que hoje todas as empresas do ecossistema já estão de acordo ou pelo menos se preparando para atender à norma.”

“Moda”

Rizzo destaca que existe hoje uma “grande moda” em torno da inteligência artificial, o que é “bom e ruim ao mesmo tempo”.

“Bom, porque desperta o interesse pelo tema e permite que empresas se dediquem ao desenvolvimento de soluções incorporando novas tecnologias. Ruim, porque existem alguns players de mercado que estão usando tecnologias tradicionais, como consultas a bancos de dados, chamando de inteligência artificial.”

Contudo, ele acredita, que assim como em outros seguimentos, os advogados que não utilizarem inteligência artificial no futuro serão rapidamente superados por aqueles que a usam. “Mas ainda estamos engatinhando em termos de soluções. Estamos apenas na primeira infância da IA para a área jurídica.”

Fonte: migalhas

Inteligência artificial e proteção de dados: realidades incompatíveis?

Num momento em que a Inteligência Artificial (IA) parece abrir portas a um universo inimaginável de potencialidades, defender a restrição da sua utilização por motivos relacionados com a proteção de dados pessoais pode parecer algo supérfluo, levando a que se coloque a seguinte questão: podem estas duas realidades ser compatíveis?

Num momento em que a Inteligência Artificial (IA) parece abrir portas a um universo inimaginável de potencialidades, defender a restrição da sua utilização por motivos relacionados com a proteção de dados pessoais pode parecer algo supérfluo, levando a que se coloque a seguinte questão: podem estas duas realidades ser compatíveis?

Alguns especialistas no ramo tecnológico e digital têm vindo a público contestar a decisão da Comissão Nacional de Proteção de Dados (CNPD) que, recentemente, levantou várias reservas sobre a utilização da AI nos sistemas de videovigilância pelas Câmaras Municipais de Leiria e Portimão.

Num argumento recorrente, mas vago e impreciso, tais especialistas referem que a utilização da AI é inevitável e que a proteção de dados pessoais se encontra sobrevalorizada.

Os próprios autarcas parecem concordar com os especialistas, referindo que «a Lei tem de adaptar-se às condições tecnológicas».

Todavia, tanto os especialistas como os autarcas falham em reconhecer que, por um lado a tecnologia não é uma realidade que viva isolada das demais realidades, e que esta, como qualquer outra construção humana, deve adaptar-se à Lei e não o contrário.

Aliás, permitir que a tecnologia pudesse valer sem que fosse regulamentada, equivaleria a defender-se a existência de uma autêntica arbitrariedade. Acresce, não se vislumbra qualquer razão que justifique excepcionar-se a tecnologia da aplicação e da conformidade à Lei.

Num Estado de Direito Democrático é imperativo que a Lei regule as realidades humanas, e com a necessária ênfase, devemos sublinhar que o problema não está na tecnologia em si, mas na forma como esta é concretamente empregue.

A IA possui diversas potencialidades, algumas das quais poderão vir a contribuir efetivamente para a melhoria da nossa qualidade de vida.

No entanto, há que reconhecer que esta tecnologia possui igualmente características que podem ser verdadeiramente nocivas. Se quisermos estabelecer um paralelo para este argumento, pensemos na energia nuclear.

A energia nuclear tanto pode ser utilizada para produzir energia elétrica e diminuir o uso de combustíveis fósseis, como pode ser utilizada para fabrico de um míssil que poderá ter como consequência a morte de milhões de pessoas.

Não sendo levado ao extremo de afirmar que a IA e a energia nuclear têm consequências similares, este paralelo serve apenas para ilustrar que é a forma como se emprega a tecnologia que dita a sua compatibilidade ou incompatibilidade com os direitos individuais.

Isto significa que, por princípio, a AI não é incompatível com a proteção de dados pessoais (que conforma igualmente um direito fundamental dos indivíduos).

Porém, a forma como se pretende utilizar a AI nos casos concretos apresentados pelas Câmaras Municipais de Leiria e Portimão, onde se verifica uma completa desconsideração pelos direitos e liberdades individuais, faz com que o seu modo de emprego seja totalmente incompatível com o direito à privacidade e o direito à proteção dos dados pessoais.

O futuro é certamente inevitável, mas desejar o futuro não é tudo, é preciso pensá-lo!

Diogo Duarte | Consultor Internacional

Fonte: BARLAVENTO

Bruxelas define regras para proteger dados pessoais em inteligência artificial

O Comité Europeu para a Proteção de Dados avisa que “o uso de dados biométricos e, em particular, o reconhecimento facial acarreta riscos” para a privacidade dos utilizadores.

AComissão Europeia vai definir “em breve” regras para a inteligência artificial na União Europeia (UE), visando uma “abordagem coordenada” entre os Estados-membros e que tenha em conta a proteção dos dados dos cidadãos, informou fonte comunitária.

“Com base no trabalho realizado nos últimos anos, a Comissão apresentará em breve um plano para uma abordagem europeia coordenada da inteligência artificial, conforme anunciado pela presidente [do executivo comunitário, Ursula von der Leyen] nas suas orientações políticas”, indica fonte oficial desta instituição europeia em resposta escrita enviada à agência Lusa.

De acordo com a mesma fonte, o objetivo das novas regras é fomentar “avanços científicos, preservar a liderança das empresas da UE, melhorar a vida de todos os cidadãos europeus e ainda facilitar o diagnóstico e os cuidados de saúde e aumentar a eficiência na agricultura”.

Ainda assim, a salvaguarda dos dados dos cidadãos será uma matéria que a Comissão de Ursula von der Leyen terá de acautelar, nomeadamente no âmbito do Regulamento Geral sobre a Proteção de Dados, criado em maio de 2018 e que regula a privacidade e o uso destas informações pessoais dentro da UE.

No documento com as orientações políticas do seu executivo comunitário, que tomou posse a 1 de dezembro, Von der Leyen comprometeu-se a, nos seus primeiros cem dias no cargo, apresentar esta “legislação para uma abordagem europeia coordenada sobre as consequências éticas e para os humanos da inteligência artificial”, no âmbito da prioridade que designou como “Europa adequada à era digital”.

No mesmo texto, a responsável notou que “os dados e a inteligência artificial são os ingredientes da inovação”.

Porém, “para usufruir desse potencial, precisamos de encontrar um caminho europeu, equilibrando o fluxo e a elevada utilização dos dados e preservando altos padrões de privacidade, proteção, segurança e ética”, destacou.

O Comité Europeu para a Proteção de Dados (CEPD), um organismo europeu independente que contribui para a aplicação das regras sobre esta matéria na UE, tem vindo a acompanhar o processamento das informações pessoais em equipamentos inteligentes.

Em julho de 2019, esta entidade – que aconselha a Comissão Europeia sobre legislação em preparação – lançou inclusive uma consulta pública relativa à utilização de dados em dispositivos de vídeo, alertando para problemas no reconhecimento facial em equipamentos como telemóveis.

No documento publicado no seu site e consultado pela Lusa, CEPD avisa que “o uso de dados biométricos e, em particular, o reconhecimento facial acarreta riscos” para a privacidade dos utilizadores.

Por isso, para este organismo consultivo, “é crucial que o recurso a essas tecnologias ocorra com o devido respeito aos princípios de legalidade, necessidade, proporcionalidade e minimização da [transmissão de] dados, conforme estabelecido no Regulamento Geral sobre a Proteção de Dados”.

“Enquanto o uso dessas tecnologias possa ser visto como particularmente eficaz, os utilizadores devem, em primeiro lugar, avaliar o seu impacto nos direitos e liberdades fundamentais e considerar meios menos intrusivos”, alerta ainda o CEPD.

A Comissão deverá ter em conta estes alertas na nova legislação sobre sistemas inteligentes, que visa ainda mais investimentos em inteligência artificial na UE, tanto através do orçamento comunitário a longo prazo, como de parcerias público-privadas (PPP).

A inteligência artificial é um avanço tecnológico que permite que os sistemas funcionem de forma autónoma, executando ordens específicas baseadas em padrões estabelecidos por um banco de dados.

Fonte: TSF

Em Busca do Bibliotecário nos Projetos de IA

Texto por Fabiola Aparecida Vizentim

Sempre gostei de tecnologia. O meu primeiro emprego foi como instrutora em uma escola de informática. Na graduação, escolhi Biblioteconomia porque no catálogo de profissões mencionava atividades como organização de informação e estruturação de bases de dados. Algo que eu já possuía afinidade e interesse.

Também gosto muito de aprender, conhecer as últimas tendências, estar sempre ativa na minha área de atuação. No início de 2019, li um artigo que discutia sobre o futuro das profissões diante da automatização (The future of employment: how susceptible are jobs to computerisation?). Nele, pesquisadores da Universidade de Oxford, afirmavam que o bibliotecário possuía uma probabilidade de 65% de robotização, técnicos e auxiliares de biblioteca 95% de probabilidade. A profissão que escolhi havia recebido o prognóstico de desaparecer.

Não me conformei com esse cenário nada otimista e pensei:

Se as novas tecnologias como robotização e inteligência artificial precisam de um grande volume de dados padronizados e classificados para alimentar os algoritmos de machine learning, com certeza o bibliotecário pode participar e contribuir com essa transformação, pois nós representamos e organizamos o conhecimento desde a Biblioteca de Alexandria (século III a.C.), certo? ”

Assim, comecei a estudar o assunto, a seguir profissionais da área nas redes sociais e a participar de meetups realizados por comunidades de inteligência artificial (IA). Conheci muitos mentores, mas ainda não havia conseguido um exemplo real de atuação.

Foi então que, em novembro de 2019, uma bibliotecária colocou um post numa rede social contando que estava no evento Microsoft AI+ Tour LATAM e que em um dos painéis o CEO de uma empresa que fornece soluções baseadas em IA, afirmou a importância do profissional de Biblioteconomia nesse contexto de transformação digital atual. Meus olhos brilharam!

Enviei uma mensagem para ela solicitando detalhes: qual era a empresa?, qual o nome do CEO?, como o bibliotecário estava contribuindo para os projetos? Estava curiosa e ansiosa para saber os detalhes. Finalmente, havia descoberto um exemplo real que redireciona e ressignifica a função do bibliotecário no cenário tecnológico futuro.

Com os detalhes em mãos, descobri que se tratava da empresa de Engenharia Cognitiva, a Omnilogic (post sobre o painel), focada em fornecer soluções baseadas em IA para varejistas e marketplaces. Fiz novas pesquisas e localizei a bibliotecária Thaianne Vieira que trabalha lá, conversei com ela por Skype e o que eu ouvi foi acalentador. Por isso, compartilho com vocês as respostas dessa “entrevista” divididas em 4 (quatro) perguntas de acordo com os escopos abaixo relacionados:

1. Quais atividades os bibliotecários desenvolvem nos projetos de IA da Omnilogic?

Atualmente nós temos no organograma da Omnilogic não apenas bibliotecários, assim como também temos estudantes de Biblioteconomia e de áreas correlacionadas. Todos estes voltam seus esforços para a organização e estruturação da informação, que fomenta nossa inteligência e a torna cada vez mais rica. Como muitas vezes nossas ferramentas são destinadas à clientes e parceiros que são marketplaces, nosso trabalho é voltado geralmente para a organização de catálogos de produtos.

2. Quais as competências e habilidades dos bibliotecários que você considera mais relevantes para a realização dessas atividades?

Apesar de não ser um nicho tradicional de trabalho do profissional bibliotecário, é necessário saber lidar com catalogação, indexação e principalmente classificação, já que a eficiência do sistema de recuperação da informação depende de uma estruturação clara e com o menor número de ambiguidade de conceitos possíveis.

3. Que conselho você daria para os bibliotecários ou estudantes de Biblioteconomia que possuem interesse em trabalhar com IA?

Na realidade, antes de mais nada, é necessário entender qual é o tipo de trabalho que se deseja exercer quando falamos de IA. Existem duas frentes se tratando de projetos de IA: a organização do conhecimento, que lida diretamente com os dados, e a frente de desenvolvimento de softwares, onde há a construção de códigos e scripts para de fato criar uma aplicação. Se deseja trabalhar com manipulação de dados, sempre é bom adquirir conhecimentos nas áreas de Análise de Dados, Arquitetura da Informação e Ontologias. Agora para a segunda frente, sugiro que se especialize nas áreas da Computação, Sistemas de Informação, Engenharia de Sistemas e de Software, entre outras.

4. Como você vê o futuro da Biblioteconomia nesse mercado de tecnologia em constante transformação?

Acredito que nossa área precisa urgentemente se abrir às novas mudanças. Enxergar outras possibilidades de atuação e capacitar melhor seus futuros profissionais, permitindo visibilidade pelo mercado. Precisamos fazer com que as organizações entendam que os bibliotecários não são apenas os estereótipos que seguem atuando dentro de uma biblioteca, pois nós lidamos com a informação e a informação está em todos os lugares. Vivemos em uma era em que estamos sempre frente a um turbilhão de informações e cada vez mais se faz necessário um profissional que saiba lidar com grandes volumes de dados e todos os seus desafios. Por isso, precisamos pensar de forma crítica sobre a organização e o consumo dos dados, visando agregar valor ao negócio dos clientes que buscam pelas nossas soluções.

E, se você assim como Thaianne e eu, acredita que os bibliotecários fazem a diferença nos projetos de IA porque tão importante quanto ter os dados é catalogá-los, entre no grupo IA Biblio BR do LinkedIn. Nesse grupo, vamos discutir o assunto e compartilhar eventos, matérias e notícias relacionados ao tema.

Fonte: Linkedin

Simpósio Internacional “Bibliotecários na era da IA e da transformação digital nas organizações”

O Simpósio Internacional “Bibliotecários na era da IA e da transformação digital nas organizações” organizado pelo CRB-8, foi realizado no Centro Universitário Belas Artes. Contamos com as palestras  dos professores Dr. José Moreiro, da Univ. de Madrid,  Dr. Fernando Modesto ECA/USP e do Alisson de Castro especialista em transformação digital e sistemas para gestão de conhecimento e da mediação da presidente do CRB-8, Regina Céli de Sousa.

Abordaram a IA (inteligência artificial) e o impacto imediato na área da biblioteconomia e ciência da informação. Na primeira apresentação, Alisson demonstra o uso  da Alexa (apliance da Amazon) e suas capacidades (skills) de responder a linguagem natural (comandos e conversa humana).

Alisson também ressaltou que está em curso o desenvolvimento pela Biosferatech (www.biosferatech.com) um código para a Alexa pesquisar em catálogos bibliográficos e enviar os resultados por email. Com isso o usuário poderá perguntar, por exemplo, “Alexa, o que temos sobre ICMS para provedores de internet em Manaus?”. O usuário ouvirá a resposta e receberá o conteúdo por email.

O prof. Moreiro falou sobre seu estudo que envolveu a análise do mercado de trabalho do profissionais da informação, indicando que muitos casos a vaga não diz explicitamente que é uma vaga para o profissional da informação mas analisando os requisitos são compativeis.

Prof. Modesto nos fala sobre a aplicação da IA no ambiente de catalogação e as iniciativas existentes já no mercado e demonstrou estudos neste sentido.

Regina Celi salientou que devemos ter uma postura de explorar estes recursos e aproveitar o momento de mudanças para implementar mudanças e atualização tecnológica, ela narra sobre sistemas de IA que tem gerado oportunidades aos profissionais, estes sistemas precisam de : Informação Organizada, vocabulários controlads e treinamento constante do algorítmos.

Taxonomias, Ontologias e a aplicação na Inteligência Artificial

Texto por Fabiola Aparecida Vizentim

No dia 19 de outubro, o Conselho Regional de Biblioteconomia do Estado de São Paulo – 8ª Região e o Grupo de Informação e Documentação Jurídica de São Paulo organizaram uma palestra com um tema atual e de extrema importância para os profissionais de informação – “Taxonomia frente a novas tecnologias como a Inteligência Artificial”.

A palestra foi ministrada pela consultora em gestão documental Elaine Restier, que possui sólida experiência com tratamento de grandes volumes de dados e implantação de taxonomias em sistemas de informação.

O conteúdo da palestra abordou questões importantes relacionadas a projetos de taxonomia como: fatores críticos, melhores práticas e lições aprendidas. O objetivo principal da palestra era provocar uma reflexão sobre a necessidade da taxonomia como uma ferramenta para classificação e organização das informações, meta alcançada nesse evento, pois era constante a interação do público com exemplos práticos, além de diversos questionamentos sobre o tema.

A palestrante mencionou, em vários momentos, a necessidade da área da Ciência da Informação trabalhar em parcferia com a Ciência da Computação para obter sucesso nos projetos de taxonomia, principalmente nesse contexto atual de inteligência artificial, citando, inclusive, alguns casos na área jurídica.

De minha parte, também concordo com essa integração entre as duas áreas. Em setembro, publiquei um artigo no LinkedIn sobre como as taxonomias e as ontologias podem ser aplicadas na inteligência artificial. Compartilho o texto na íntegra. Boa leitura!

Recentemente, a mídia publicou duas matérias que comentavam sobre como a Biblioteconomia e a Ciência da Informação podem contribuir para a Ciência da Computação.

Em sua coluna na Forbes sobre IA e Big Data, Kalev Leetaru na matéria Computer Science Could Learn A Lot From Library And Information Science, menciona alguns pontos interessantes que valem a pena destacar:

  • Para os bibliotecários e cientistas de informação, os algoritmos não são somente pilhas de códigos, mas uma compilação de suposições, prioridades e preconceitos humanos, ou seja, visões de mundo que guiam a criação desses algoritmos;

  • A teoria da catalogação utilizada pelos bibliotecários pode ajudar os pesquisadores atuais de IA na construção dos classificadores taxonômicos.

O filósofo Pierre Lévy, em entrevista publicada na Folha de São Paulo, também mencionou alguns pontos que relacionam indiretamente essas duas áreas:

  • Você precisa poder categorizar os dados corretamente, avaliar a confiança que pode dar para fontes de informação, ser capaz de comparar diferentes fontes”;

  • Não acho que a estatística sozinha seja o que a gente precisa. Sim, precisamos de estatística, mas antes precisamos categorizar corretamente todos os dados”.

A categorização de dados acompanha o ser humano desde seus primórdios, pois através de processos mentais ele organiza tudo que está integrado à sua vida e ao espaço em que vive.

No início feito de maneira inconsciente, esse processo transforma-se em classificação consciente com atributos, passando assim a definir peculiaridades e diferenciações aos objetos e pensamentos.

Na Biblioteconomia e na Ciência da Informação há dois sistemas de classificação e de representação do conhecimento – Taxonomia e Ontologia – que são bem interessantes para os projetos de Inteligência Artificial.

A pesquisadora e professora Emilia Currás, no seu livro “Ontologias, Taxonomia e Tesauros em Teoria de Sistemas e Sistemática”, afirma que em alguns tratados de filosofia, se lê que a Ontologia é o estudo do que existe e do que admitimos que existe, para conseguir uma descrição coerente da realidade.

Já a Taxonomia – etimologicamente derivada do grego: taxis = ordenação e nomia = lei, norma, regra – de início era uma vertente dos ramos da Biologia, que tratava da classificação dos seres vivos. Passou porém, a ser utilizada no campo das tecnologias digitais (sempre no contexto da organização do conhecimento de empresas e instituições), fornecendo uma visão global dos assuntos trabalhados pela empresa.

Para facilitar a compreensão dessas técnicas, vamos recorrer a um exemplo frequentemente adotado: representar o conhecimento acumulado pelo ser humano relacionado ao vinho.

A Taxonomia organizaria a informação da mais genérica para a mais específica, utilizando-se da relação hierárquica ou relação de gênero e espécie entre os termos. Por exemplo, poderia se classificar o vinho de acordo com a sua cor, em três tipos principais:

Outras classificações possíveis poderiam, por exemplo, adotar intensidade dos sabores ou os tipos de uvas utilizados na produção do vinho, desde que seja mantida a relação hierárquica de informações, da mais genérica para a mais específica.

Já a Ontologia estabeleceria uma relação elaborada entre os termos, mostrando as interações e os sentidos criados com a evolução do conhecimento humano.

Por exemplo, poderia se criar uma ontologia relacionando vinhos e comidas, o que amplia o entendimento em relação ao vinho e permitiria responder (deduzir informações) questões como: Bordeaux é um vinho tinto ou branco? Qual a melhor escolha de vinho para carne grelhada? O sabor de um vinho específico muda com o ano da safra?

Nesse momento de humanização das máquinas, a Taxonomia e a Ontologia podem transmitir para a Inteligência Artificial as diferentes maneiras de como o ser humano enxerga a sua realidade circundante, representar o nosso complexo universo humano em campos específicos de conhecimento, por meio de “pequenas realidades” (as visões de mundo citadas por Kalev Leetaru).

Há que se considerar, ainda, que cada projeto de Inteligência Artificial possui objetivos distintos, com diferentes graus de complexidade. Para aqueles com maior necessidade de categorização de dados, pode-se adotar soluções híbridas, incorporando, além da estatística nos termos afirmados por Pierre Lévy, sistemas como Taxonomia e Ontologia na arquitetura dos seus bancos de dados.

Referências Bibliográficas:

CURRAS, E. Ontologias, taxonomia e tesauros em teoria de sistemas e sistemática. Brasília: Thesaurus, 2010.

HERNANDES, R. Tecnologia pode tirar ciências humanas da Idade Média, diz Pierre Lévy. Folha de São Paulo, São Paulo, set. 2019. Ilustrada. Disponível em: https://www1.folha.uol.com.br/ilustrada/2019/09/tecnologia-pode-tirar-ciencias-humanas-da-idade-media-diz-pierre-levy.shtml. Acesso em: 31 out. 2019.

LEETARU, K. Computer science could learn a lot from library and information science. Forbes, Jersey City, ago. 2019. AI & Big Data. Disponível em: https://www.forbes.com/sites/kalevleetaru/2019/08/05/computer-science-could-learn-a-lot-from-library-and-information-science/#3be7712587d7. Acesso em: 31 out. 2019.

PARREIRAS, F. S. Introdução à engenharia de ontologias. In: SIMPÓSIO MINEIRO DE SISTEMAS DE INFORMAÇÃO, 1., 2004, Belo Horizonte. Anais […]. Belo Horizonte: Cotemig, 2004.

Taxonomia e novas tecnologias foi tema de outubro no Ciclo de Palestras do Grupo Jurídico

Texto da Comissão de Divulgação do CRB-8

O Grupo de Informação e Documentação Jurídica de São Paulo – GIDJ/SP, em parceria com o CRB-8, promoveu a palestra Taxonomia frente a novas tecnologias como a inteligência artificial, com Elaine Restier, na manhã do sábado 19 de outubro de 2019, na Câmara Municipal de São Paulo. Elaine Restier é instrutora do Centro de Treinamento em Documentação – CTDOC, diretora da Organizator Consultoria da Informação e atua há 20 anos em projetos voltados para documentação eletrônica e digitalização em instituições de diversos portes e segmentos.

Na palestra, Elaine tratou das taxonomias enquanto ferramentas para distribuição do conteúdo, discutiu sobre as possíveis causas da pouca exploração pelos profissionais e sobre o impacto da evolução da tecnologia para as estruturas de classificação. Além de compartilhar algumas visões de futuro, Elaine forneceu um roteiro que permite construir e implantar uma taxonomia corporativa eficaz para compartilhamento de documentos eletrônicos.

Elaine Restier, palestrante, diretora da Organizator Consultoria da Informação

Já participei de diversas palestras, mas a iniciativa do GIDJ-SP foi especialmente gratificante. O foco do grupo (documentação jurídica) forma uma audiência qualificada que propicia uma troca mais rica. A participação dos presentes complementou o conteúdo, com experiências próprias e dúvidas pertinentes. Os exemplos e dificuldades relatados estimularam o debate permitindo que cada um saísse do evento com um caminho mais claro sobre seus projetos pessoais e corporativos. A escolha do tema foi bem assertiva. Abordar as práticas arquivísticas com enfoque na tecnologia, estimula os profissionais da área a se reciclarem. Parabéns às organizadoras.”

Os participantes acompanharam com interesse toda a apresentação que despertou questões e discussões bastante interessantes.

José Eugênio Grillo, consultor em gerenciamento de ativos digitais

“A palestra  Taxonomia frente a novas tecnologias como a Inteligência Artificial foi ministrada com maestria pela Elaine Restier. De maneira leve e descontraída, apropriada para uma manhã de sábado, Elaine abordou os principais tópicos de um projeto de construção deste instrumento fundamental para os nossos novos tempos digitais. Da coleta de informações sobre as expectativas dos participantes, passando por assuntos da área jurídica até as lições aprendidas extraídas de seus projetos.”

Os slides da palestra estão disponíveis no site do GIDJ/SP.

Para o sábado 14 de dezembro está agendada a última palestra de 2020. Luciana Arjona apresentará o tema Gestão compartilhada para melhoria de serviços em unidades de informação. A palestra será ministrada na rua Quatá, 300, Vila Olímpia.

El Prado crea una herramienta ‘online’ para poner sus obras en contexto

El museo presenta una línea del tiempo basada en la inteligencia artificial que permite dotar de un marco histórico y cultural a las obras y autores, así como ampliar información sobre ellos

Una demo de la nueva herramienta de línea del tiempo y lectura ampliada de la web del Museo del Prado.
Las pinturas y esculturas son las mismas de siempre. También la historia que las rodea. Lo que cambia con la herramienta online de línea del tiempo y lectura aumentada que acaba de lanzar el Museo del Prado es la manera de abordarlas y conjugarlas. Y, sobre todo, de ponerlas en contexto. En colaboración con Telefónica, la pinacoteca ha desarrollado un método para su página web basado en la inteligencia artificial –que es, además, gratuito y pionero en el mundo– que permite relacionar las obras de arte de su colección con los grandes acontecimientos históricos, científicos y culturales ocurridos en su época. ¿Sabía que cuando Goya pintaba su Pelele Mozart componía su sinfonía número 40? ¿O que El Bosco ejecutó su tríptico de El Jardín de las Delicias en la misma época en la que vivió Martín Lutero? “Esta es una herramienta que puede ayudar a comprender el mundo en que se crearon estos cuadros y a la vez entender el mundo de hoy”, aseguró en el acto de presentación Javier Solana, Presidente del Real Patronato del Museo. “Nos gustaría que esta herramienta se entendiera como un regalo del Museo a la comunidad educativa en su bicentenario”, agregó el director, Migue Falomir. “Se trata de un instrumento de conocimiento fantástico”.
La propuesta es una moneda de doble cara. La primera ofrece una lectura aumentada de los textos explicativos de 5.500 fichas de obras de las 17.000 que existen en español (más 2.700 en su versión en inglés). Al acceder a la web semántica del Prado (que se lanzó en 2015 también en colaboración con Telefónica, y que permite interconectar las piezas artísticas y los autores de la colección con otros contenidos como conferencias, documentos, archivos del museo…), ahora resulta posible pinchar sobre ciertas palabras relativas a conceptos y temas clave que ayudan a ampliar las referencias sobre una pieza en concreto. Por ejemplo: en la entrada en línea de Las Meninas, se puede acceder a información ampliada sobre Velázquez (el autor); Antonio Palomino (tratadista que dedicó un epígrafe a esta pintura en su historia de los pintores españoles de 1724); o Felipe IV (el rey que se refleja en el espejo del cuadro). Al hacer clic sobre estas palabras, el sistema ofrece varias opciones: leer la correspondiente entrada de la Wikipedia, ver la página de autor dentro de la web del Museo del Prado (cuando la hay), o acceder a su línea del tiempo.Esta última opción define la segunda cara del proyecto. Se trata de una aplicación que permite visualizar las obras del museo en orden cronológico. Sobre estas, se superponen en capas los principales acontecimientos históricos, literarios, pictóricos, arquitectónicos, musicales, filosóficos, escénicos y científicos de la época (se puede seleccionar hasta cinco de estas ocho estas categorías a la vez). Proseguimos con el ejemplo de Las Meninas, que se pintaron en 1656. Ese mismo año, Hendrick Dubbels terminó El puerto de Ámsterdam en invierno, un cuadro que también se guarda en el Prado. En torno a esas fechas nacieron Carlos XI, uno de los grandes monarcas de Suecia; Bartolomeo Cristofori, el inventor del piano, o Edmund Halley, el astrofísico que puso nombre al comenta que observamos por última vez en 1986. Aunque la propuesta se ha diseñado para el público general, parece claro que sus utilidades en el terreno de la educación son amplias. Además, permite acercar el Museo del Prado a todo aquel que no puede visitarlo físicamente. “La tecnología solo tienen sentido si mejora la vida de las personas”, afirmó Eduardo Navarro, directivo de Telefónica que también participó en la presentación. “En la educación, ya no sirve lo de memorizarlo todo: el gran reto ahora es estar preparado para los muchos retos de la sociedad. Y, en ese sentido, ahora priman la creatividad y la capacidad de poner las ideas en contexto”.
 Fonte: EL PAÍS

Palestra: Taxonomia frente a novas tecnologias como a Inteligência Artificial

Inscrições: encurtador.com.br/cFOS9

Taxonomia frente a novas tecnologias como a Inteligência Artificial

Resumo:

É sabido que as taxonomias são ferramentas poderosas para distribuição do conteúdo, mas por que são pouco exploradas? Quais suas principais barreiras? 

A evolução da tecnologia reduz a necessidade de uma estrutura de classificação? Tendências como inteligência artificial, machine learning, linguagem natural, entre outras tecnologias, substitui as ferramentas arquivísticas e de gestão da informação?

Além de compartilhar algumas visões de futuro, esta palestra tem por objetivo fornecer um roteiro que permite construir e implantar uma taxonomia corporativa eficaz para compartilhamento de documentos eletrônicos. 

Conteúdo Programático

  1. Por que as taxonomias são pouco utilizadas?

  2. Requisitos mínimos para o sucesso do projeto?

  3. Compliance – forte sponsor.

  4. Contexto do conteúdo eletrônico.

  5. Como explorar os mecanismos de busca

  6. A importância do sistema a ser utilizado como repositório

  7. Ferramentas adicionais: vocabulários, thesauru, léxico etc.

  8. Taxonomia x Folksonomia

  9. Fatores Críticos de um projeto de taxonomia

  10. Melhores Práticas & Lições Aprendidas

Mini Curriculum do Palestrante

Elaine Restier – Instrutora do CTDOC (Centro de Treinamento em Documentação) e diretora da Organizator Consultoria em Informação. Atua desde 2000 em projetos envolvendo documentação eletrônica e digitalização em instituições de distintos portes e segmentos, tais como: Banco BTG Pactual, Bayer CropScience, Natura, Racional Engenharia, Laboratório Bergamo/Amgen, PDG Realty, CTG Group, Barzel Properties entre outras. Estes projetos propiciaram uma sólida experiência em tratamento de grandes volumes de informação, automação da captura, além de implantação de taxonomias em sistemas de informação.

Como a IA e a transformação digital criam novas profissões

*Por Isabelli Gonçalves

No mercado, quando atrelamos tecnologia e otimização de processo, há uma grande discussão sobre máquinas substituindo funções exercidas por humanos. Nessa abordagem, apenas um recorte do futuro é colocado em evidência, portanto, é necessário complementar o outro lado: a partir da automatização de atividades repetitivas, quais serão as funções que pessoas irão exercer nesse novo ecossistema do trabalho?

Já temos alguns indícios que respondem a esses questionamentos. Mas que também apontam para quais itens precisam ficar no radar dos profissionais que desejam surfar na onda promovida pela Transformação Digital, e mais especificamente, nas atividades que são impactadas pela Inteligência Artificial.

Novas oportunidades

Mariana é comunicóloga de formação, apesar de ter sido impulsionada a cursar jornalismo pelo ideal de falar sobre o mundo atual, quase uma escritora da atualidade. Ao entrar no mercado percebeu que muitos profissionais atuam em categorias paralelas à comunicação (em sua maioria, na área de assessoria de imprensa). Ainda no eixo de comunicação empresarial, encontrou algumas vagas com o desafio de escrever para interfaces web, apps e conversacionais, como chatbots.

Ao chegar nesse último passo percebeu que, além de conseguir um emprego, entrou em uma área que está em uma constante crescente, situação bem diferente das redações que são assombradas pelos “passaralhos” e demissões em massa por conta da falta de audiência das revistas, jornais e outros canais. Somado a isso, a vaga oferece salários compatíveis ou maiores às funções padrão e traz consigo um ambiente descontraído, inovador e flexível, fruto da cultura de startup.

Essa é uma história que descreve muitos profissionais contratados por empresas da área de TI para gerenciar demandas de chatbots e outras interfaces, e para suprir demandas relacionadas a conteúdo, pesquisa e relacionamento. Esses profissionais descritos como UX Writer (UX do inglês User Experience), professores de robô, treinadores de máquina ou designers conversacionais assumem o desafio de criar conteúdos que ajudam os usuários a alcançar seus objetivos e acabam sendo exemplos de como a transformação digital modifica jornadas profissionais que estão consolidadas por anos. Afinal, para suprir as demandas das novas profissões desse mercado efervescente (tão recentes que ainda não possuem um nome consolidado), a formação acadêmica não pode ser o único critério.

Com isso, chegamos a um novo ponto: a tecnologia traz uma transformação constante, e a partir dessa quarta evolução as contratações serão pautadas cada vez mais pelos skills dos profissionais e seu poder de adaptabilidade:

  • Um revisor do mercado editorial tem um vasto vocabulário para escrever as melhores fraseologias e conhece muitas palavras. A partir disso, no universo da tecnologia esse profissional será extremamente assertivo nas escolhas dos melhores termos para os botões dos sites e apps (você já imaginou como seria navegar num site só com botões e cores?), ou na escrita de conteúdo para um chatbot. E até mesmo numa análise coerente de itens disponibilizados por um banco de dados, como informações que retornam de uma API;
  • Profissionais que trabalharam por anos na área de qualidade de call center e outras células de atendimento possuem o repertório de relacionamento com o cliente e a vivência de prestação de serviço B2B. Cenário esse que equivale ao treinamento de máquinas que realizam um atendimento humanizado via assistentes virtuais, seja em voz ou em texto;
  • Um analista financeiro tem um amplo conhecimento em números e a habilidade de lidar com grande massa de dados. Logo, é possível ser muito perspicaz nas interpretações e na consolidação das informações disponibilizadas pelos softwares e os diversos dados de canais digitais (seja um atendimento, relatório sobre o faturamento, acessos de um e-commerce ou a jornada dos clientes na estrutura omnichannel);
  • Um advogado possui a habilidade de mediar cenários que envolvem impasses humanos com empresas. Assim, pode ser um ótimo embaixador para destravar impasses promovidos pela relação entre empresas e clientes. E nisso podemos incluir desde os casos dos sites de reclamações à propostas de melhores experiências nos diversos pontos de contato com o consumidor, conceitos que fazem parte de Customer Experience.

Cases e o que podemos aprender

Com esses exemplos, é possível questionar qual o resultado desses conceitos aplicados no dia a dia:

  1. Entre as principais previsões do relatório The Future of Jobs, divulgado pelo Fórum Econômico Mundial, especialistas em IA, Machine Learning, Big Data, transformação digital e em novas tecnologias estão entre as Top 10 profissões emergentes. E é engraçado pensar que todas essas funções sequer existiam até a década passada.
  2. Entre as inúmeras operações de chatbots aplicadas no último anos, os treinadores de bots (em sua maioria) são profissionais que eram os melhores atendentes da célula de chat/ telefone. Essas pessoas toparam o desafio de criar conteúdos que, alinhados com algoritmos, podem obter melhores resultados na pesquisa de satisfação e engajamento do consumidor.
  3. Os cargos de Analista de Atendimento Digital Júnior, Agente de Atendimento e Solução Digital ficaram entre as vagas mais populares de 2018 no Brasil, segundo o LinkedIn.

Se colocarmos uma lupa nos chatbots, a aplicação desta nova interface surgiu como tendência e o gerenciamento de suas necessidades está em processo de construção, seja na busca por metodologias ou profissionais. Entre as habilidades em destaque estão:

  •  Relacionamento: este item é essencial para entender as demandas do cliente e transformar tudo isso em satisfação entre a empresa e os prestadores. Neste ponto, também é necessário traduzir solicitações de negócio para escopos técnicos dos dois lados.
  •  Dados: com base nas análises, as decisões serão orientadas por indicadores que auxiliam na predição de resultados. Afinal, dados são o novo petróleo e garimpá-los se torna elemento primordial para alcançar o sucesso.
  •  Discurso empresarial: conhecer, falar e saber traduzir possibilidades e limitações do negócio resulta em uma troca mais assertiva entre as diversas áreas da empresa.
  •  Tecnologia: a massa de trabalho é um software. Com isso, o conhecimento em itens relacionados ao ambiente de tecnologia fortalece a abordagem do especialista entre os itens: UX, programação, produto, inteligência artificial, plataformas, entre outros.
  •  Conteúdo: bons robôs precisam se comunicar bem, por isso, a entrega do profissional está relacionada ao fluxo e experiência de “conversas”. O conhecimento prévio de conteúdo/ letras/ comunicação é um elemento importante para a entrega final.

*Isabelli Gonçalves é líder de Chatbot da Hi Platform e atua há mais de 10 anos na área de Comunicação.

Fonte: Canaltech

Usan inteligencia artificial para reconstruir los textos de la biblioteca de Asurbanipal

Enrique Jiménez, un investigador español, desarrolla un programa para encontrar los fragmentos perdidos de las primeras obras de la literatura mundial.

El profesor Enrique Jiménez, analizando un texto en escritura cuneiforme (Ludwig-Maximilians Universitat)

Esta historia comienza hace miles de años en la majestuosa biblioteca de Asurbanipal, el último gran rey de Asiria (669-627 a.C.). Dentro de su palacio en la ciudad de Nínive se alojaba una espectacular colección de más de 20.000 tablillas de arcilla entre las que se encontraba el Poema de Gilgamesh, la obra narrativa más antigua de la humanidad.

En el 612 antes de Cristo, las fuerzas babilonias arrasaron Nínive, y todos los conocimientos albergados en su biblioteca fueron destruidos. Textos de escritura cuneiforme sobre historia, arte, literatura, ciencias, religión, magia… quedaron hechos trizas. “Cuando los arqueólogos descubrieron el sitio (en 1847), había dos habitaciones repletas de fragmentos”, explica Enrique Jiménez, asiriólogo de la Ludwig-Maximilians Universitat de Múnich.

En la biblioteca había miles de pequeños fragmentos de arcilla, rotos y esparcidos por todas partes

Decenas, centenares, miles de pequeños trozos de arcilla, rotos y esparcidos por todas partes. Algunos eran tan diminutos que, a pesar de contar con símbolos sumerios y acadios, se hacía prácticamente imposible para los humanos identificar su significado. De ahí nació la idea en la que está trabajandoJiménez desde hace ya un año.

“Este sistema de escritura es muy ambiguo”, explica el investigador español a La Vanguardia“Hay hasta 30 formas distintas de leer un solo símbolo. Si tienes el contexto, todo resulta mucho más fácil”, indica. Por eso lleva meses construyendo una base de datos que cuenta ya con 11.000 fragmentos de tablillas “que no ha leído nunca nadie”.

Cuando los arqueólogos encontraron la biblioteca de Asurbanipal descubrieron miles de tablillas de arcilla fragmentadas (Ludwig-Maximilians Universitat)

Su objetivo es ambicioso: reconstruir los inicios de la literatura mundial con la ayuda de la inteligencia artificial (IA). Mientras indexa imágenes e información, Jiménez está desarrollando paralelamente un algoritmo para poder “llenar los vacíos”. Es decir, identificar exactamente aquellas piezas que van juntas.

“Es increíblemente irritante cuando tienes que dejar de traducir un texto porque falta un solo signo y sabes que hay un fragmento en algún lugar que encaja exactamente con esta brecha”, indica. Y no hay mejor forma de solucionar estas lagunas que empezar por el principio, por Mesopotamia, donde aproximadamente 2.500 años antes de Cristo se desarrolló una rica tradición literaria bilingüe (sumeria y acadia).

Su objetivo es ambicioso: reconstruir los inicios de la literatura mundial con la ayuda de la IA

Enrique Jiménez fue galardonado con el Premio Sofja Kovalevskaja por este proyecto, que concluirá en 2023. “Esperamos tener una base de datos gigantesca. En apenas un año ya hemos superado las expectativas iniciales, que era de 100.000 líneas. La idea es centrarnos en textos literarios, aunque es difícil identificar según qué tablillas”, insiste.

Todos los fragmentos se digitalizan y se transcriben. “Queremos llegar a los 15.000 para finales de este año, lo que nos permitirá buscar todos los fragmentos inéditos de la biblioteca de Asurbanipal en un segundo”, afirma el asiriólogo español.

La mayoría de los fragmentos de arcilla encontrados en Nínive se almacenan hoy en día en el British Museum de Londres y la mitad de ellos aún no se han registrado. Además, desde el pasado mes de mayo, dos fotógrafos se encargan de registrar las grandes colecciones restantes de este museo, en especial la Babylon Collection. Son, más o menos, 40.000 tablillas más.

Cuanta más información tengan los investigadores –un equipo que empezó apenas con Jiménez y un informático pero que recientemente se ha ampliado hasta las seis personas- más fácil será enseñar a la IA el léxico acadio y todas las lecturas posibles de un signo.

Jiménez ha elaborado una base de datos que cuenta ya con 11.000 fragmentos “que no ha leído nunca nadie”

“Nuestro objetivo es que el programa reconozca las secuencias de caracteres y las asocie automáticamente con las palabras apropiadas para completar un pasaje de texto. Una computadora puede considerar todas las lecturas al mismo tiempo y hacer coincidir automáticamente los nuevos fragmentos con los textos ya capturados”, indica Enrique Jiménez.

Las problemáticas que afrontan este equipo de expertos no son muy diferentes a las que se encuentran los bioinformáticos a la hora de secuenciar el ADN. Para completar los códigos genéticos, se utilizan algoritmos como BLAST (Basic Local Alignment Search Tool), que tiene en cuenta las pequeñas variaciones e incluso ha sido utilizado para descifrar papiros griegos.

Los problemas son parecidos a los que se encuentran los bioinformáticos a la hora de secuenciar el ADN

Para demostrar la eficacia de su método, Jiménez lo ha estado probando con tablillas literarias procedentes de la famosa biblioteca de Sippar, una ciudad al noroeste de la antigua Babilonia, en lo que hoy en día es Irak. Dice el historiador Beroso el Caldeo (350-270a.C.) que fue en esta ciudad donde Noé enterró todos los escritos de la tradición mesopotámica antes de que llegara el diluvio universal.

En colaboración con el doctor Anmar Fadhil, de la Universidad de BagdadEnrique Jiménez ha podido estudiar el Enuma eliš, un poema babilonio que narra el origen del planeta, y completar un poco más la obra de El Justo Sufriente, un texto precursor del sueño de Job que aparece en la Biblia.

Enrique Jiménez ha estado probando su método con las tablillas de la famosa biblioteca de Sippar

El poema habla de un hombre que es castigado por Dios y este, a través de un sueño, le anuncia que va a recuperarse de las desgracias. “Durante 3.000 años, nadie pudo leer esta obra. Ahora hemos podido decodificar el mensaje y restaurar el texto, que ya era un clásico en la antigüedad”, señala el asiriólogo español.

Otro texto, escrito en acadio, en el que ha estado trabajando Jiménez es un himno al dios babilónico Marduk, el soberano de los hombres y los países. Su traducción sería más o menos así (en negrita, las partes recién añadidas):

Marduk, tu ira es como una gran inundación,
 
Pero en la mañana, tu gracia consuela a los castigados,
 
El viento feroz y furioso se ha calmado,
 
Donde las olas jugaban, las costas ahora son pacíficas,
 
Has iluminado la oscuridad, la nube oscura.
 
Donde sopló el resplandor, despejaste el día.
La literatura permite a los investigadores aprender importantes detalles de la vida en Mesopotamia

Estas tablillas de escritura cuneiforme permiten a los investigadores aprender importantes detalles sobre la vida cotidiana en Mesopotamia. Con el poema de El Justo Sufriente, por ejemplo, se ha descubierto que el hombre se despierta y habla con un sirviente, cuya tarea era, entre horas, ayudarle a levantarse.

La cuestión ahora será desentrañar las piezas complementarias entre un sinfín de restos antiguos ya excavados. “Tenemos muchas copias de los mismos textos, pero todas están rotas”, lamenta Enrique Jiménez. Así que, hasta dentro de 40 o 50 años, “siendo muy optimistas”, la computadora no habrá podido reconstruir toda la literatura acadia. “Sin conocer los clásicos, no se puede entender una civilización”, concluye.

Hasta dentro de 40 o 50 años la computadora no habrá podido reconstruir toda la literatura acadia

IA pode ser considerada autora de dois produtos patenteados

Entretanto, especialistas entendem a atribuição de direitos autoriais a uma máquina como imprudente

Foto: Shutterstock

A automação tem sido encarada como uma via de eficiência das companhias que buscam digitalização e, ao mesmo tempo, endossa o temor de que eliminará um sem número de empregos. Mas a tecnologia teria capacidade de criar propriedade intelectual?

Uma equipe internacional liderada pelo professor de direito da Universidade de Surrey, Ryan Abbot, registrou os primeiros pedidos de patentes para duas invenções criadas autonomamente por inteligência artificial. As informações são da Fast Company.

O sistema responsável pelas invenções é chamado de DABUS, anteriormente conhecido por criar arte surrealista. Projetado por Stephen Thaler, o robô foi desenvolvido para apresentar novas ideias, revelando recentemente dois produtos inovadores: um recipiente para alimentos que pode mudar de forma e uma lanterna que emite luz piscante para chamar a atenção em situações de emergência.

Embora os órgãos responsáveis pelo registro de patentes no Reino Unido e na União Europeia tenham aceitado que os pedidos atendam ao padrão “novo, inventivo e aplicável industrialmente”, a questão sobre um sistema de IA ser responsável por uma patente ainda não foi considerada.

Alguns especialistas entendem a atribuição de direitos autoriais a uma máquina como imprudente, já que podem haver complicações de natureza legal geradas dessa situação.

Fonte: IT Mídia

Gravação da palestra Inteligência artificial e classificação de documentos

Gravação da palestra “Inteligência artificial no serviço público para a classificação de documentos”, com Henrique de Andrade, líder da Coordenação de Análise, Diagnóstico e Geoprocessamento do Ministério Público do Estado do Rio de Janeiro – MPRJ. Evento realizado no auditório principal do Arquivo Nacional, no Rio de Janeiro, em 10 de julho de 2019.

Fonte: Arquivo Nacional

Dados de saúde com inteligência artificial (IA) melhora os resultados

A adoção dessa tecnologia no setor está otimizando significativamente o atendimento ao paciente

Tim Morris*

Foto: Shutterstock 

A inteligência artificial (IA) e o ‘machine learning’ existem há muitos anos. Na verdade, está presente há tanto tempo quanto as pessoas vêm considerando a ideia de uma máquina imitando a mente humana e construindo um cérebro virtual. Então, por que isso agora está nos impactando tanto?

Crescimento exponencial de dados

No setor de saúde o que impacta são os dados e, talvez, dados mais importantes no contexto do atendimento ao paciente. De acordo com a IDC, os dados de saúde crescerão para 2.314 ‘exabytes’ até o próximo ano, de um número de 153 ‘exabytes’ em 2013, com uma taxa de crescimento anual de 48%. Somente os provedores do Electronic Health Record (EHR) estão gerando enormes quantidades de dados estruturados e não estruturados. Esse mercado global deve crescer de cerca de US$ 23 milhões para US$ 32 milhões até 2023.

Além disso, o aumento da tecnologia ‘wearable’ (aquela que vestimos, como óculos e relógios, entre outros) está permitindo que mais informações sejam coletadas dos pacientes enquanto eles trabalham e quando ficam doentes e são tratados no hospital. Saúde e bem-estar são as principais razões pelas quais as pessoas estão comprando ‘wearables’, para melhorar os resultados de sua saúde.

Os pacientes estão, portanto, no centro de onde esses dados precisam ser utilizados e podem ser desenvolvidos. Em última análise, para qualquer profissional de saúde, médico, enfermeiro ou empresa de TI da área de saúde, o objetivo comum é reduzir a variabilidade na prática, personalizar o atendimento aos pacientes e melhor tratá-los para reduzir o impacto dos danos e fornecer melhores resultados.

Os sistemas de apoio à decisão clínica (CDS) têm sido a principal arma na batalha contra a variabilidade na prática e no apoio aos resultados clínicos. Eles incorporam conhecimentos clínicos que refletem continuamente na medicina baseada em evidências (MBE) da literatura de pesquisa e fontes de conhecimento prático.

No entanto, a MBE demora muito para se tornar parte da prática clínica. Demora cerca de 17 anos para apenas 14% das novas descobertas científicas encontrarem seu caminho na prática diária e impacto de cuidados. A realidade é que isso é muito tempo e não há necessidade de esperar se gerarmos todas essas informações e pudermos avançar.

O potencial dos dados do mundo real

Agora, os “dados do mundo real” que foram reunidos em grandes estudos observacionais estão diminuindo a distância entre os cenários experimentais e as realidades clínicas. Dada a disponibilidade de dados abrangentes, a oportunidade de aproveitar estudos retrospectivos em grande escala para compreender o comportamento e os resultados do paciente pode ser usada para melhorar a prática futura de cuidados.

A ideia do ‘botão verde’ liderada por Nigam Shah, Christopher Longhurst e Robert Harrington na Universidade de Stanford apresenta um cenário no qual os médicos podem analisar uma amostra menor de pacientes semelhantes (talvez o resumo de 100 outros casos) com idade, sintomas etc. que receberam diversos tratamentos ou medicamentos. Podemos aprender por intermédio da análise profunda de dados que pacientes semelhantes podem ter reagido particularmente bem com um medicamento. Isso não teria sido estudado por meio de resultados científicos mais amplos. Portanto, a análise do mundo real para formar “evidências do mundo real” permite que os médicos coloquem evidências em prática.

O futuro da tomada de decisão clínica pode ser trilhado com base em evidências do mundo real através do uso de IA e aprendizado de máquina. Então, como usamos as ferramentas de IA e ‘machine learning’, e como reduzimos o tempo de evidência para prática?

Uso da IA e ‘machine learning’

A maioria dos dados de saúde que coletamos é desestruturada, exigindo trabalho extensivo para estruturar, codificar e identificar antes que qualquer análise profunda possa começar. Portanto, 80% do uso de IA está na preparação dos dados. Usando este processo, os dados brutos não estruturados e anteriormente inutilizáveis tornam-se conhecimento acionável em tempo real.

Suportada por algoritmos avançados e capacidades de ‘machine learning’, a IA pode analisar dados de pacientes existentes para estudar e desenhar novos achados de uma amostra menor de pacientes e hipóteses, muitas vezes não cobertas em pesquisas científicas maiores. Por exemplo, na Alemanha a Elsevier fechou parceria com um prestador de serviços de saúde para avaliar seis milhões de conjuntos de dados de pacientes anônimos, juntamente a dados de 25 milhões de publicações médicas.

Além disso, com análises profundas, os dados coletados por meio de conteúdo estruturado podem ser facilmente analisados para feedback sobre as práticas de cuidado. Isso terá impacto direto nas diretrizes de cuidados e proporcionará um processo contínuo de melhoria na tomada de decisões clínicas. Esse ciclo de retroalimentação permitirá reduzir as variações injustificadas e permitir que os ‘insights’ sejam devolvidos à prática clínica, comparando a melhoria clínica entre os hospitais.

Conclusão

A inteligência artificial (IA) e a tecnologia de ‘machine learning’ permanecerão como um método de entender nosso mundo, mas precisamos entregar resultados que serão impactantes para o paciente. É como usamos essas ferramentas e como fazemos a diferença que é importante. Os provedores de serviços de saúde podem realmente ser os pesquisadores do futuro e reduzir o tempo de 17 anos para dias e melhorar os resultados dos pacientes. Estou realmente animado com a jornada que estamos trilhando para a melhoria da saúde global.

*Tim Morris é diretor de portfólio comercial e de parcerias da Elsevier para EMEALAAP

Fonte: IT Forum 365

Editora lança primeiro livro escrito por inteligência artificial

A iniciativa foi realizada com a ajuda de pesquisadoras da Universidade de Frankfurt, que utilizaram um algoritmo batizado como Beta Writer

Por Isabella Carvalho

A editora inglesa Springer Nature lançou o primeiro livro do mundo escrito por inteligência artificial. Intitulado Lithium-Ion Batteries: um resumo da pesquisa atual, o livro fornece uma visão geral das pesquisas mais recentes sobre baterias de íons de lítio. A iniciativa foi realizada com ajuda de pesquisadores da Universidade de Frankfurt e um algoritmo chamado Beta Writer.

Com base nos artigos e pesquisas já publicadas, o Beta Writer organiza os documentos, cria resumos de cada um deles e conecta todo o conteúdo. O livro, que está disponível digitalmente, possui índice e referências criadas automaticamente pelo Beta. Cada citação é referenciada com um hiperlink para que os leitores explorem o documento original.

“Olhando para uma longa tradição e expertise na publicação de livros acadêmicos, a Springer Nature tem como objetivo moldar o futuro da publicação e leitura de livros. Novas tecnologias em torno de Processamento de Linguagem Natural e Inteligência Artificial oferecem oportunidades promissoras para explorarmos conteúdos científicos”, disse Niels Peter Thomas, diretor executivo da Springer Nature, em um comunicado.

Segundo Henning Schoenenberger, diretor de dados da editora, mais de 53 mil trabalhos de pesquisas sobre as baterias já foram publicados nos últimos três anos. Assim, o livro tem o potencial de iniciar uma nova era na publicação científica. “Esse método permite que os leitores acelerem o processo de digestão da literatura de um determinado campo de pesquisa, em vez de ler centenas de artigos publicados”, escreveu o executivo na introdução do livro.

Fonte: https://www.startse.com

Chatbots, Inteligencia Artificial (IA) y bibliotecas

Texto por Saul Equihua, do Infotecarios

Desde hace un tiempo he tratado de seguir el desarrollo de tres macro tendencias en el mundo tecnológico, estas son el Big Data, el Internet de las cosas (IoT por sus siglas en inglés) y la Inteligencia Artificial (AI).

Hablando de esta última macro tendencia (AI) hay muchos aspectos y aplicaciones que diferentes compañías del ámbito tecnológico están desarrollando en torno a la AI, ejemplo de ello están los ayudantes personales, disponibles en nuestros dispositivos móviles como SIRI (disponible en dispositivos Apple), el asistente de Google y Cortana (el asistente de Microsoft), sin embargo no son los únicos ejemplos asociados a la AI, pero antes de mencionarlos vale la pena tomar en cuenta una definición de AI.

Cuando hablamos de la Inteligencia Artificial, según Takeyas (2007) es una rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos en base a dos de sus características primordiales: el razonamiento y la conducta. (1)

Y como rama de la teoría de la computación incluye áreas tales como el razonamiento automático, la demostración de teoremas, los sistemas expertos (también asociado a los bots), el procesamiento de lenguaje natural, robótica, lenguajes y ambientes de IA, aprendizaje (asociado a Machine Learning ML), redes neuronales, algoritmos genéticos, por mencionar solo algunas.

Hablando concretamente de los sistemas expertos, estos son un sistema computacional que émula la capacidad de tomar decisiones de un humano experto.

Un Bot puede estar diseñado en cualquier lenguaje de programación, funcionar en un servidor o en un cliente, o ser un agente móvil, etc. A veces son llamados Sistemas Expertos, pues muchos se especializan en una función específica.

Entre las funciones que hoy en día desmepeñan los Bots se encuentran:

  • Rastrear información en la web (Web Crawler)

  • Dar respuestas rápidas

  • Mantener conversaciones

  • Editar de manera automática

  • Simular tráfico en Internet y las redes sociales

Y derivadas de estas funciones el “Dar respuestas rápidas” pueden permitir a las bibliotecas utilizar esta parte de la IA (entre otras) por medio de la adaptación de la tecnología de inteligencia artificial para servicios de referencia.

La AI ha recorrido un largo camino con ejemplos como el de Watson de IBM cuando ganó “Jeopardy” en febrero de 2011. Los avances en inteligencia artificial (AI) combinados con la disponibilidad de recursos en línea hacen que sea hora de considerar la inteligencia artificial como una herramienta para la biblioteca.

Incluso el comenzar a pensar en soluciones que puedan integrar el desarrollo de la inteligencia artificial y el reconocimiento facial permitiendo a los Bots llevar a cabo una entrevista en un proceso de referencia, podría sonar a ciencia ficción pero ya hoy en día se desarrollan Bots, y tenemos dispositivos móviles que hace la identificación facial se vale soñar ¿o no?

Volviendo a aspectos más concretos y hablando de los Chatbots en las bibliotecas, aunque si bien es cierto estos pueden llevar a cabo procesos de búsqueda, aún muy rudimentarios para las necesidades de las bibliotecas y sus usuarios, estos pueden pueden proporcionar orientación general y hacer referencias brindando un apoyo a los bibliotecario (nunca sustituyendo).

La inteligencia artificial en un Chatbot está construida usando conceptos de Natural Language Interaction (NLI) que están diseñados para simular una conversación.(2)

Las bibliotecas europeas fueron las primeras en explorar los chatbots, especialmente el experimento Stella (https://goo.gl/YzMfWZ) en Bibliothekssystem Universität Hamburg. Stella es un Cahtbot, con el que uno puede tener conversaciones similares a las de un chat. El principio para ello es una base de datos que asigna respuestas adecuadas a todas las entradas posibles. El desarrollo de esta base de conocimiento tomó más de nueve meses.

De igual modo vale la pena hablar del proyecto “Pixel” de The University of Nebraska. Pixel es un chatbot experimental que puede responder preguntas sobre las bibliotecas y sus recursos. Este programa fue desarrollado usando AIML (Lenguaje de Marcado de Inteligencia Artificial). Se puede encontrar más información sobre AIML en http://www.alicebot.org/aiml.html.

Hablar con Pixel es como si estuviéramos hablando con una persona que acaba de aprender el idioma (idioma inglés). Si deseas probar puedes hacerlo por el siguiente link http://pixel.unl.edu/

En el artículo de Allison (2) puedes encontrar más información sobre el proyecto Pixel.

Hoy en día todo el mundo habla de las macro tendencias con las que inicié este post (Big Data, IoT e AI), sin embargo a veces me parece que solo es una moda y que poco se sabe de cómo realmente trabajan, muy a modo de broma y comentando con colegas y amigos suelo decir que estas macro tendencias son como el sexo en los adolescentes, esto es: Todo el mundo habla de ello pero pocos saben cómo es realmente, creo que en algún momento yo mismo he habaldo de estos temas con un amplio grado de desconocimiento, pero ahora lo menciono por que existen diferentes modos crear Chatbots.

Uno de ellos es el que se mencionó a lo largo de es post, por medio de sistemas expertos, pero otros se asocian a Machine Learning como el siguiente ejemplo.

Chatbot “Lola”. Aunque este no está relacionado directamente con bibliotecas creo que vale la pena mencionarlo, Lola está basada en el sistema Dialogflow de Google parte de la plataforma de desarrollo Google Cloud y una tecnología de creación de chatbots con aprendizaje automático usando Machine Learning.

Los corpus conversacionales temáticos  se desarrollan sobre la base de árboles y grafos no dirigidos, sin embargo también se utilizan grafos dirigidos en ciertas conversaciones a efectos de conseguir la mejor experiencia. Si deseas hacer una prueba a continuación te dejo el vínculo a “Lola” .

En esta ocasión creo que hasta aquí llega este post, valdría la pena saber si conocías de estas iniciativas y cuál es tu opinión sobre estas tecnologías, comenta por la página o en nuestras redes sociales.

Articulos consultados y recomendados

1. Takeyas, B. (2007) Introducción a la inteligencia artificial. Disponibel en: https://goo.gl/nbTthCConsultado el 10/07/18.

2. Allison, D. (2012). Chatbots in the library: is it time?. Library Hi Tech, 30(1), 95-107.Disponible en: https://goo.gl/jrPiis

Fonte: Infotecarios

QUAL A IMPORTÂNCIA DAS BIBLIOTECAS NA ERA DA INTELIGÊNCIA ARTIFICIAL

As bibliotecas não são mais o centro do mundo da informação e os novos usuários nem sempre compartilham os mesmos valores dos bibliotecários

Você pode pesquisar no Google, Alexa, Cortana, Watson ou Siri, mas será capaz de fazer sua pesquisa na biblioteca local? Há um século, a eletricidade era uma coisa nova e quase mágica – uma novidade com poucas aplicações. Naquela época, ninguém poderia prever que ela daria origem a telefones, linhas de produção e microchips. E, no entanto, a eletricidade transformou todos os setores, incluindo agricultura, saúde, transporte e manufatura. Como um trampolim fundamental para tantas inovações, essa novidade foi a mais importante conquista da engenharia do século XX.

Agora, no século 21, uma coisa quase mágica entrou em nossas vidas: a inteligência artificial (IA). E assim como foi nos primeiros dias da revolução eletrônica, estamos apenas começando a entender como essa nova tecnologia transformará nossas vidas diárias. Quase todas as tecnologias emergentes de hoje são construídas com base no aprendizado de máquina cada vez mais sofisticado. Toda grande empresa de tecnologia está apostando no aprendizado de máquina, na esperança de ser um participante na próxima revolução, desenvolvendo inteligências proprietárias para realizar tarefas que costumavam exigir inteligência humana. Hoje, nossas interações com a IA são na maior parte novas (“Siri, por que a galinha atravessou a estrada?”) E os resultados são grosseiros, assim como as primeiras lâmpadas e fotografias.

A moderna biblioteca pública surgiu ao lado da revolução elétrica do final do século XIX e início do século XX, e adotou, desde então, sistemas e serviços a novas tecnologias. No entanto, a IA testará a instituição da biblioteconomia como nenhuma tecnologia o fez antes. Nós valorizamos as bibliotecas porque elas nos mantêm informados e conectados; lemos para enriquecer nossas vidas e informar nossas decisões. Mas o que acontece quando esse processo de tomada de decisão é fundamentalmente modificado?

As máquinas estão se tornando hábeis em aprender, falar, reconhecer padrões e tomar decisões. Como resultado, pedir respostas a uma máquina está se tornando rapidamente uma atividade normal e cotidiana. À medida que a IA se torna melhor e melhor em entender nossas necessidades de informação e fornecer respostas relevantes, parece provável que venhamos a confiar mais nela. Com o tempo, essas interações serão menos inovadoras e mais essenciais.

Após a revolução da IA, não leremos um livro da biblioteca para obter informações para tomar uma decisão. Por que nós vamos ler um livro, se uma máquina já leu todos e é mais hábil em análise e tomada de decisão? Não passaremos horas em computadores de biblioteca pesquisando uma pergunta quando a IA puder fazer isso por nós em segundos. E nós certamente não iremos a um bibliotecário humano com uma necessidade de informação quando a IA for capaz de fornecer uma resposta melhor em uma fração do tempo.

Neste momento, quando buscamos uma resposta para um problema, muitas vezes colocamos dados (números, termos de pesquisa ou o que quer que seja) em um software, fazemos uma análise e usamos os resultados para tomar uma decisão. Este processo híbrido ocorre em nossas cabeças e no computador. Em breve, parecerá muito natural apenas declarar o problema e deixar o computador entregar a decisão. As partes do meio – a entrada, a análise e as partes do raciocínio crítico – ocorrerão dentro de uma caixa preta. Não entendemos como isso acontece e não nos importamos, desde que tenhamos resultados consistentemente bons.

Embora as bibliotecas certamente sejam alteradas pela revolução da IA ​​- e de formas que não podemos imaginar – parece improvável que elas deixem de existir por completo. De fato, bibliotecas públicas e universidades públicas podem ainda ter um papel crítico a desempenhar na revolução da IA. As principais IAs de hoje são dominadas por software proprietário. Apple, Microsoft, Google, Facebook e outros grandes players de tecnologia têm seus próprios AIs. Essas empresas investiram pesadamente em pesquisa e desenvolvimento e guardaram sua propriedade intelectual de perto.

Os algoritmos que dão origem ao aprendizado de máquina são mantidos em segredo, e o código resultante do aprendizado de máquina é geralmente tão complexo que até os desenvolvedores humanos não entendem exatamente como o código funciona. Então, mesmo que você quisesse saber o que a IA estava pensando, você estaria sem sorte. Mas se a IA é uma caixa preta para a qual não temos chave, as instituições públicas podem desempenhar um papel importante no fornecimento de soluções de IA de código aberto que permitem mais transparência e mais controle.

ACESSO

Uma caixa preta é um dispositivo que recebe uma entrada e produz uma saída sem qualquer conhecimento de seu funcionamento interno. Se você perguntar a Alexa: “Qual foi a causa da Guerra Civil?”, Você receberá uma resposta diferente do que se perguntasse a Siri – e você não saberia como chegara a resposta. Você nunca pode saber o que o Alexa está pensando porque o pensamento acontece em um data center seguro e distante.

As instituições públicas podem ajudar a reduzir as barreiras à IA produzindo, fornecendo e promovendo projetos como esse de código aberto. Atualmente, existem vários projetos de IA de código aberto disponíveis para pesquisadores e desenvolvedores, e à medida que a tecnologia se torna mais onipresente, sistemas de IA práticos estarão disponíveis para pessoas fora desses campos especializados.

Ao apoiar a IA de código aberto, as instituições públicas podem garantir que os pesquisadores possam acessar sistemas poderosos que estejam livres do viés corporativo. Porque o Alexa está feliz em responder às suas perguntas – e vender uma assinatura para o Amazon Prime [ou Amazon Prime Video, streaming de filmes e séries online que compete diretamente com o Netflix].

LITERÁCIA DA INFORMAÇÃO

O conhecimento da informação é sobre saber quando há necessidade de informação e ser capaz de identificar, localizar, avaliar e usar efetivamente essa informação para o assunto em questão. Quando o Watson da IBM venceu Ken Jennings e Brad Rutter no Jeopardy em 2010, ele sabia exatamente como avaliar e usar efetivamente as informações. E depois de ver um computador possuir os melhores competidores humanos do mundo, acho que é seguro dizer que a IA é capaz de ter um conhecimento de informação superior. O que é pior, eventos recentes (influência russa, alegações de notícias falsas etc.) ilustraram o quão ruim os humanos são em avaliar a exatidão das coisas que lemos.

Quando a IA se torna boa em usar informações para resolução de problemas, é possível que nossa dependência da alfabetização informacional da IA leve a um enfraquecimento da nossa. Mas, se for importante avaliar criticamente as fontes de informação, será duplamente importante (mas consideravelmente mais difícil) avaliar nossos provedores de informação e tomadores de decisão.

Como vimos nos últimos anos, pequenas alterações em um conjunto de dados ou algoritmo podem alterar significativamente nossas experiências digitais. O Google foi acusado de favorecer seus próprios produtos e serviços em detrimento de seus concorrentes. Facebook foi acusado de alterar o curso de uma eleição. O chatbot da Microsoft se transformou em um troll apaixonado por Hitler. O popular jogo Pokémon GO mantinha os jogadores confinados em bairros brancos. Podemos supor que uma IA é um árbitro imparcial, mas uma IA com vieses em seu conjunto de dados produzirá respostas tendenciosas.

A mesma lente crítica da alfabetização informacional que aplicamos a livros e artigos deve ser aplicada à IA; para isso, precisaremos de uma lente muito mais potente.

PRIVACIDADE PESSOAL

Podemos nem sempre perceber, mas estamos usando a IA todos os dias. Por exemplo, quando pesquisamos no Google, estamos alimentando dados no RankBrain – um sistema de inteligência artificial que ajuda a classificar os resultados da pesquisa. Com o aprendizado de máquina, um computador ensina a fazer algo mais do que seguir uma programação detalhada.

Nem sempre entendemos exatamente como isso funciona, mas se você alimentar uma quantidade suficiente de gatos em uma rede neural, ela eventualmente aprenderá a identificar um gato. Se você der palavras e frases, pode eventualmente aprender a entender e responder. E cada vez mais, a IA está se saindo melhor que as regras algorítmicas codificadas por humanos. Dado que o aprendizado de máquina requer grandes quantidades de dados para ser efetivo, nossos dados pessoais se tornaram uma commodity quente. Depósitos impressionantes de dados profundos são o equivalente ao petróleo do século 21.

As bibliotecas promovem a privacidade dos dados e, na maioria das vezes, praticamos o que promovemos (não oferecemos registros da biblioteca, não rastreamos nossos usuários da Web etc.). Mas precisaremos de um novo conjunto de ferramentas sofisticadas se quisermos ser verdadeiramente defensores dos direitos à privacidade nas próximas décadas.

Todos os dias, nossos dados são monetizados por corporações, armados por atores políticos e roubados para fins ilícitos. Se alguma coisa nos interessar sobre a revolução da IA, não é um apocalipse robótico de ficção científica. É como as formas já estabelecidas de danos na Internet serão exacerbadas pelo aprendizado de máquina. As bibliotecas podem ajudar a proteger a privacidade, fornecendo maneiras anônimas de interagir com sistemas de inteligência artificial.

LIBERDADE INTELECTUAL

Se a liberdade intelectual é o direito de todo indivíduo de buscar e receber informações de todos os pontos de vista sem restrição, então esse direito está sob ataque. Quando chegamos a buscar e receber informações da IA, como garantiremos que a liberdade seja protegida?

Em 2016, as autoridades que investigaram a morte de um homem do Arkansas buscaram como evidência quaisquer comentários ouvidos pelo falante do Amazon Echo do suspeito. Em setembro de 2017, o Departamento de Justiça (DOJ) emitiu mandados de busca para o Facebook, exigindo informações sobre contas associadas a usuários “anti-administração”. Ao acessar os dados pessoais desses usuários, o DOJ saberia não apenas sobre os ativistas, mas também sobre quem leu seus posts, quem os seguiu e quem os enviou.

Um livro não pode ser chamado para um banco de testemunhas. Os livros não falam, mas o seu assistente de IA escuta e fala. Se você perguntasse ao seu assistente doméstico de IA como assassinar alguém ou se você pedisse para ler um post de um ativista contra o governo, você poderia estar produzindo uma pista de evidências que poderia ser usada contra você. Talvez você estivesse escrevendo um episódio de CSI. Talvez você estivesse pesquisando um livro sobre a história das organizações anarquistas. Seja qual for o seu motivo para buscar essa informação, suas consultas estavam sendo gravadas e salvas.

Como nosso principal meio de obter informações passa da leitura de palavras impressas para a interação com as inteligências da máquina, devemos garantir que as mesmas salvaguardas que usamos para proteger os livros sejam estendidas à IA. Quando uma IA toma decisões ou previsões controversas, as pessoas quase certamente tentarão bani-la enquanto tentam banir livros controversos.

Em 2017, um crítico sincero do Google foi demitido de um centro de estudos norte-americano que recebeu financiamento do Google. Mas, em 2025, uma empresa terá maneiras muito mais sofisticadas e sutis de alterar o cenário da informação. Uma IA que determina quais informações você vê podem aprender a refletir os preconceitos de sua programação e desvalorizar certos pontos de vista. Se uma IA é uma caixa preta que recebe uma pergunta inserida e fornece uma resposta de saída, quem pode dizer que a saída não foi influenciada por alguém ou algo assim?

TRABALHOS                                                                                          

Como a IA chega a superar os humanos em um número crescente de tarefas, ela substituirá os seres humanos em um número crescente de empregos. E à medida que a IA se tornar mais sofisticada, será cada vez mais difícil inventar novos empregos (empregos que os humanos podem ter melhor desempenho que as máquinas). Eventualmente, esses mesmos algoritmos que tomaram nossos empregos podem resultar em uma solução para nos alimentar e nos abrigar, mas, a curto prazo, seremos deixados para lidar com um número crescente de pessoas desempregadas.

Motoristas de táxi assistem cansados enquanto frotas de carros autônomos descem em Cingapura. Caixas em Iowa observam enquanto suas estações de trabalho são arrancadas e substituídas por máquinas de auto-verificação. E os promotores de seguros no Japão observam seus representantes de sinistros de seguro médico serem substituídos por um sistema de inteligência artificial baseado no Watson Explore da IBM.

Hoje, as bibliotecas oferecem oportunidades para as pessoas encontrarem novos empregos e aprenderem novas habilidades. Os desempregados e os sem-teto costumam confiar nas bibliotecas para se conectarem aos serviços e encontrar trabalho. Estudos sugerem que 38% dos empregos correm alto risco de serem substituídos pela IA nos próximos 15 anos. Quando isso acontecer, as bibliotecas precisarão aumentar drasticamente os serviços para desempregados e subempregados. Com os empregos de baixos salários recebendo o impacto da transição da IA, o desafio será reeducar a força de trabalho para competir por um pequeno número de empregos altamente especializados.

LIBERDADE PARA SE DIVERTIR

À medida que a inteligência artificial é colocada em ação, alguns acreditam que os humanos serão liberados para passar mais tempo brincando. Talvez os robôs não estejam vindo para roubar nossos empregos; talvez eles estejam vindo para nos libertar do nosso trabalho. Se a IA vier a assumir grande parte do trabalho que fazemos, é possível que tenhamos mais tempo para brincar, criar e descobrir. Nossas identidades e nosso senso de significado podem estar ligados ao trabalho que fazemos, mas se esse trabalho for embora, poderemos procurar encontrar, investir e inventar sentido em outro lugar. Talvez esse significado venha na forma de realidade virtual, jogos ou um ressurgimento da religião.

Bibliotecas são um espaço social. Nós defendemos as virtudes da comunidade e da criatividade. Oferecemos espaços e programas para reuniões. A Association for Library Service to Children (ALSC) escreveu sobre a importância do jogo. A ALA tem uma mesa redonda de jogos que existe para “apoiar o valor do jogo e jogar em bibliotecas.” Se uma revolução da IA significa que os humanos estarão trabalhando menos, estaremos procurando maneiras de gastar todo esse tempo livre recém-descoberto. Talvez nos sintamos perdidos na ficção, nos conectemos com outros humanos em nossa comunidade ou façamos um hobby. Talvez desejemos ser voluntários, brincar ou criar. Talvez a biblioteca esteja bem posicionada para ajudar os humanos a encontrar um novo significado.

CONCLUSÃO

Da liberdade intelectual à alfabetização informacional e muito mais, as bibliotecas fornecem um conjunto de princípios que ajudaram a guiar o crescimento intelectual no último século. Na era da IA, esses princípios são mais relevantes do que nunca. Mas as bibliotecas não são mais o centro do mundo da informação e os novos usuários nem sempre compartilham nossos valores. À medida que o aprendizado de máquina prolifera, que passos podemos dar para garantir que os valores da biblioteconomia sejam incorporados aos sistemas de IA? A advocacy  deve ser dirigida não para manter a biblioteconomia tradicional, mas para influenciar o desenvolvimento dos sistemas de informação emergentes que podem vir a nos substituir.

Publicado originalmente na Information Today sob o título “Libraries in the Age of Artificial Intelligence“. Tradução de Chico de Paula.

Fonte: Biblioo Cultura Informacional

Como a inteligência artificial está ajudando a decifrar os códigos do Arquivo Secreto do Vaticano

Fregonese Daniele | Vatican Secret Archives | AFP

Um novo software pode fazer com que séculos de documentos escritos em latim sejam disponibilizados na internet

OArchivum Secretum Vaticanum ou Arquivo Secreto do Vaticano (ASV) parece algo tirado das teorias conspiratórias de ficção, bem ao estilo do escritor Dan Brown.

Mas, na realidade, os ASV são simplesmente um conjunto de arquivos privados (melhor tradução para a palavra “secretum”) do Papa. Porém, desde que o Papa Leão XIII abriu o arquivo a alguns estudiosos, em 1881, ele deixou de ser particular.

Teoricamente, desde o século VIII, todos os textos, documentos históricos, atas promulgadas pelo Vaticano, livros de contas e correspondências dos papas estão disponíveis aos pesquisadores qualificados para isso.

O único problema é que o enorme volume de arquivos os torna virtualmente inacessíveis.

De acordo com um artigo de Sam Kean publicado no The Atlanticdos 85 quilômetros de fila de estantes do Arquivo Secreto do Vaticano, somente poucos milímetros de páginas foram escaneados, transcritos e preparados para ficarem acessíveis aos serviços de busca na internet.

Agora, o In Codice Ratio, um programa que utiliza inteligência artificial e reconhecimento ótico de caracteres (OCR) para transcrever automaticamente conteúdos, está sendo utilizado para digitalizar os arquivos do Vaticano.

Porém, segundo Kean, o OCR faz maravilhas com documentos escritos à máquina, mas não pode processar o texto manuscrito. As letras tendem a se misturar e nem sempre o que se encontram são “exemplos claros e nítidos” das letras que supostamente representam.

É aí que entra em jogo a inteligência artificial. Os pesquisadores recrutaram estudantes de um instituto italiano sem nenhum conhecimento em latim medieval. Com base em exemplos de letras que o software de OCR já havia identificado, os estudantes deveriam comprovar se elas correspondiam ou não aos símbolos corretos. Tudo o que eles tinham que fazer era comprovar os padrões visuais. O software anotou os apontamentos que os estudantes fizeram e corrigiu os erros.

Quando o projeto teve início, “a ideia de envolver os estudantes era desacreditada”, contou Paolo Merialdo, cientista da Codice Ratio. “Mas, agora, a máquina está aprendendo com os esforços dos estudantes. É incrível como uma pequena e simples contribuição de muitas pessoas pode ajudar a solucionar um problema tão complexo”, comemora Paolo.

Transcrever ao computador os antigos escritos também não está sendo tarefa simples. Um terço das palavras continha erros, o que atrapalhava a leitura. Mas o trabalho já foi considerado um grande avanço.

As transcrições imperfeitas podem oferecer informações suficientes sobre o contexto do manuscrito em questão”, contou Merialdo a Kean.

Além disso, os cientistas que estão por trás do projeto esperam que o software melhore com o tempo, já que, quanto mais se aprende com a inteligência artificial, melhores são os resultados obtidos.

Para ler o artigo completo do The Atlantic (em inglês), clique aqui.

Texto por Zelda Caldwell

Fonte: Aleteia

TOI IV – I Simpósio Inteligência Artificial

CONTRIBUIÇÕES PARA CIÊNCIA DA INFORMAÇÃO

Evento GRATUITO – VAGAS LIMITADAS – CERTIFICADO DE PARTICIPAÇÃO USP

Inscrição

OBJETIVO
A Inteligência Artificial vai mudar radicalmente a forma que vivemos, e consequentemente a maneira com que organizamos, processamos e analisamos as informações. “Aprender”, uma habilidade antes exclusiva dos seres vivos, está cada vez mais fazendo parte do repertório das máquinas a nossa volta. O que isso significa para as empresas, os profissionais da informação e as pessoas de modo geral? Estima-se que em 2023, o PIB Mundial impactado por inteligência artificial será na ordem de 6 trilhões de dólares. Atualmente, conforme pesquisa conduzida pela McKinsey em 2017, empresas que utilizam de maneira proativa Inteligência Artificial em seus negócios obtém margens de lucro entre 5 a 10 pontos porcentuais acima da média do mercado. E isso é só o começo!
Neste Simpósio, você vai conhecer um pouco mais sobre:
• As tecnologias utilizadas em Inteligência Artificial como: Processamento de Linguagem Natural, Agentes Virtuais, Chatbots, Reconhecimento de Padrões, Visão Computacional, entre outras;
• Verá como empresas líderes em seu segmento estão aplicando esta tecnologia, e;
• Terá acesso a algumas tecnologias de ponta, tanto de empresas provedoras de tecnologia como de Startups.
Além disso, debates sobre temas relevantes relacionados sobre o assunto como o Impacto nos Empregos e nas Carreiras, aspectos Éticos e de Governança e como começar a revolução digital em sua empresa serão debatidos por especialistas.

PÚBLICO ALVO
O I SIMPÓSIO INTELIGÊNCIA ARTIFICIAL é recomendado para pesquisadores, estudantes, executivos, gestores, analistas, especialistas e consultores que atuam em setores de informação intensiva entre outros setores e desejam aprender mais sobre uma das tecnologias de maior potencial transformador da atualidade, para poder desempenhar papéis de liderança e participar ativamente na chamada 4a Revolução Industrial.

LOCAL
Local – USP – Faculdade de Economia, Administração e Contabilidade (FEA) – Auditório Safra
Dia – 24 de maio de 2018
Horário – 08h às 12h30

Mais informações: http://www.toiomtid.com.br/toi-iv-i-simposio-inteligencia-artificial/

TOI IV – I Simpósio Big Data, Data Analytics e Inteligência Artificial

CONTRIBUIÇÕES PARA CIÊNCIA DA INFORMAÇÃO

Evento GRATUITO – VAGAS LIMITADAS – CERTIFICADO DE PARTICIPAÇÃO USP

Inscrição

OBJETIVO
A Ciência da Informação engloba os diversos meios utilizados para comunicação, sejam estes digitais ou analógicos, estruturados ou não estruturados. Todo esse universo informacional é que compõem o que hoje denominamos “BIG DATA” – dois milhões e meio de milhões de milhões, mais precisamente, 2.5 seguido de 18 zeros: 2.5 quintilhões. Essa é a quantidade de dados gerados em toda a internet por dia. Para extrair conhecimento deste emaranhado de dados se faz necessário desenvolver mecanismos robustos de análise, o que denominamos “Data Analytics”. Devido ao crescimento exponencial destes volumes de dados nos deparamos com a necessidade de aprendizado automático, ou seja, a utilização de algoritmos que capacitem o aprendizado de máquina, a base para “Inteligência Artificial”. Neste cenário, o SIMPÓSIO BIG DATA, DATA ANALYTICS E INTELIGÊNCIA ARTIFICIAL, se propõem a debater a inter-relação de cada uma destas disciplinas bem como as diversas etapas a serem cumpridas para a adoção bem-sucedida da gestão orientada a dados.

PÚBLICO ALVO
O I SIMPÓSIO BIG DATA, DATA ANALYTICS E INTELIGÊNCIA ARTIFICIAL tem coo foco profissionais da informação, pesquisadores, estudantes, executivos, gestores, analistas, especialistas e consultores que atuam na área de gestão e organização da informação e desejam transformar dados em informação e conhecimento, desempenhar papéis de liderança e participar ativamente de projetos de natureza analítica.

LOCAL
Local – USP – Escola de Comunicação e Artes (ECA) – Auditório Lupe Cotrim – 1º andar
Dia – 22 de maio de 2018
Horário – 14h às 17h30

Mais informações: http://www.toiomtid.com.br/toi-iv-i-simposio-big-data/

Conselho Regional de Biblioteconomia – 8ª Região promove atividades em comemoração ao Dia do Bibliotecário

por Kleber Patricio
Foto: divulgação.

Em homenagem ao Dia do Bibliotecário, comemorado em 12 de março, o Conselho Regional de Biblioteconomia – 8ª Regiãopromove palestras em São Paulo (capital), Lorena, Campinas, São Carlos e Ribeirão Preto com o objetivo de debater a profissão, as perspectivas, os avanços e as inovações do mercado.

Segundo a presidente do Conselho Regional de Biblioteconomia – 8ª Região, Regina Céli de Souza, a data também é uma oportunidade para refletir sobre a identidade desses profissionais, que hoje lidam com os bens mais preciosos da atualidade – a informação e o conhecimento. Regina explica também que a profissão de bibliotecário mudou muito nos últimos anos devido à revolução tecnológica. Por causa dessas mudanças, os profissionais tiveram que se adaptar, fortalecer suas habilidades e, a partir daí, conquistaram novos campos de atuação.

Na prática, o bibliotecário pode atuar em qualquer empresa onde a informação seja matéria-prima de trabalho, como centros de pesquisa, museus, editoras, livrarias, centros culturais, oficinas, salas de leitura e de lazer, galerias de arte, cinematecas, pinacotecas e videotecas, entre outros. “Em um escritório de advocacia, por exemplo, o bibliotecário trabalha além da jurisprudência, legislação com inteligência competitiva”, explica Regina Céli.

Lei estabelece que todas as escolas tenham biblioteca até 2020

Céli lembra ainda que a Lei 12.244 regulamenta que todas as instituições de ensino públicas e privadas do Brasil tenham bibliotecas até 2020. A legislação, sancionada em 24 de maio de 2010, também obriga todos os gestores a providenciarem um acervo de, no mínimo, um título para cada aluno matriculado. “Faltando cerca de dois anos para o fim do prazo, muito precisa ser feito, mas a lei foi um grande avanço. Precisamos lutar para que ela seja aplicada, pois sabemos a importância da leitura desde a primeira infância e o papel fundamental da biblioteca como agente incentivador da leitura”, defende Regina Céli.

O Dia do Bibliotecário foi instituído em 9 de abril de 1980 pelo Decreto 84.631, assinado pelo então presidente da República, João Figueiredo. O dia escolhido homenageia a data do nascimento do bibliotecário, escritor e poeta Manuel Bastos Tigre.

A profissão é regulamentada no Brasil desde 1962 (Lei nº 4084, de 30 de junho de 1962). Mais de 30 mil profissionais estão inscritos em todos os 14 Conselhos Regionais, sendo cerca de 10 mil apenas no Estado de São Paulo.

Serviço:

São Paulo – 12/03/2018 – Segunda-feira – às 19 horas. Palestra A Inteligência Artificial como Oportunidade para o Bibliotecário, com Angelo Caldeira. Na sequência, o violeiro Paulo Freire fará uma homenagem à ilustre bibliotecária de formação e pesquisadora do cancioneiro popular Inezita Barroso. Coquetel de abertura. Local: Teatro São Pedro –  R. Albuquerque Lins, 207 – Campos Elíseos. O teatro fica a uma quadra da Estação Marechal Deodoro do Metrô – Linha Vermelha, estacionamento ao lado. Confirmar presença pelo e-mail crb8@crb8.org.br ou telefone (11) 5082-1404.

Lorena – 13/03/2018 – Terça-feira – às 19 horas. Palestra Repositórios Digitais Confiáveis, com Francisco Lopes Aguiar. Local: Auditório do Centro Universitário Unifatea – Av. Peixoto Castro, 539 – Lorena/SP – Informações: jbrodolivera@gmail.com.

Campinas – 14/03/2018 – Quarta-feira – às 14 horas. Palestra A ética bibliotecária como prática da verdade, com Cristian Brayner. Local: Auditório da Biblioteca Central César Lattes – Rua: Sérgio Buarque de Holanda, 421, Cidade Universitária “Zeferino Vaz” – Distrito de Barão Geraldo, Campinas/SP – Informações: (19) 3521-6502.

Ribeirão Preto – 15/03/2018 – Quinta-Feira, às 19 horas. Palestra A Convivência enquanto ferramenta para as bibliotecas brasileiras: uma leitura a partir dos projetos de lei do Congresso Nacional, com Cristian Brayner. Local: Anfiteatro André Jacquemin, Ribeirão Preto/SP –  Ffclrp / USP – Informações: (16) 3315-3719.

São Carlos – 16/03/2018 – Sexta-feira, às 19 horas. Palestra A ética como Responsabilidade Moral e a Biblioteca, com Cristian Brayner. Local: Anfiteatro Bento Prado Junior – Rod. Washington Luís, km 235, São Carlos/SP – Informações: (16) 3351-8389.

Palestrantes

Angelo Caldeira – Mestrando pela Fundação Getúlio Vargas. Formado em Direito pela Universidade de São Paulo. Diretor do Lowsoft S.A. CEO do Looplex. Sócio de Levy& Salomão.

Francisco Lopes Aguiar – Doutorando em Ciência da Informação pela ECA – USP, mestre em Ciência da Informação pela PUC-Campinas, bacharel em Biblioteconomia e Ciência da Informação pela Fabici/Fespsp. Docente no curso de Biblioteconomia e Ciência da Informação e do curso de Pós-Graduação em Planejamento e Gerenciamento de Sistemas de Informação – Fabici /Fespsp. Atua no mercado de gerenciamento de documentos, dados, informação e conhecimento, desenvolvendo projetos de concepção e implementação de arquivos empresariais/corporativos, centros de informação e documentação, bibliotecas universitárias/especializadas, bibliotecas/repositórios digitais. Foi conselheiro do CRB-8.

Cristian Brayner – Formado em biblioteconomia, filosofia, tradução, direito e letras (francês). É mestre em Ciência da Informação e Doutor em Literatura e Práticas Sociais. É bibliotecário da Câmara dos Deputados e ex-diretor do Departamento de Livro, Leitura, Literatura e Bibliotecas. Foi agraciado com o Prêmio Casa de Las Américas.

Conselho Regional de Biblioteconomia – 8ª região – sitehttp://www.crb8.org.br/ – Mídias sociais: https://www.facebook.com/crb8sp – https://twitter.com/crb8sp

Fonte: KLEBER PATRICIO ONLINE

UM BÁSICO E ELEMENTAR SOBRE INTELIGÊNCIA ARTIFICIAL PARA BIBLIOTECÁRIO

Por FERNANDO MODESTO

Fevereiro/2018

Bibliotecários se lembram dos filmes e séries de ficção científica nos quais as máquinas e outros dispositivos possuem uma inteligência excepcional. Aliás, qualquer filme ou série, desta categoria, sempre apresenta algum recurso de inteligência capaz de expandir a capacidade humana de sair das mais insólitas situações. Ao menos nos filmes e séries como Star TrekStar Wars ou qualquer outra odisseia intergaláctica.

Na atualidade, surgem dispositivos e serviços contendo algoritmos de inteligência que tornam em realidade o que parecia ficção. Costumam chegar, em geral, acompanhados de prognósticos apocalípticos, como a extinção de profissões ou, mesmo, da raça humana. Em relação a extinção de atividades, sabe-se que aquelas funções repetitivas vão sendo automatizadas com maior intensidade nos próximos anos. Porém, no caso bibliotecário, escuto vaticínios há anos, desde a popularização dos computadores, da internet e web, do google, dos tablets e celulares, além de outros sistemas tecnológicos criados para o processamento da informação. No momento, a guilhotina da hora para a Biblioteconomia é a inteligência artificial, um dos temas em efervescência no momento.

Seu uso nas atividades de interação humana, não é uma intenção recente. O assunto é até antigo. A tentativa de decifrar a comunicação entre humanos e máquinas é um processo que remonta à década de 1950, e ao trabalho do cientista Alan Turing, que propôs um teste (Teste de Turing) para avaliar a capacidade de uma máquina exibir comportamento, semelhante ao do ser humano. Caso a máquina consiga enganar um entrevistador, levando-o a pensar que interage com um humano, teria êxito como uma inteligência artificial – IA.

Entretanto, desde a época de Turing, há o debate sobre o seu teste ser realmente um método preciso para identificar a inteligência artificial. Porém, a percepção por trás da ideia permanece, na medida que a IA vai se aprimorando, tornando cada vez mais difícil distinguir a diferença entre humanos e máquinas.

Ressalte-se que outros pioneiros importantes quando se aborda a evolução da IA, são: John McCarthy (responsável por cunhar o termo “inteligência artificial”, em 1956), Marvin MinskyAllen NewellArthur Samuel e Herbert Simon.

Um aspecto que se destaca sobre a inteligência artificial e de seus recursos atualmente comercializados, enfatiza a capacidade de transformar a maneira de realizar o atendimento às pessoas e dos processos produtivos adotados pelas empresas.

Neste contexto, pode-se indagar qual será o impacto de utilização da IA no trabalho bibliotecário?

É uma questão relevante aos bibliotecários até porque o tema importa à sociedade em geral. Ademais, segmentos de atividade bibliotecária começam a ser afetados, como é o caso dos existentes em escritórios jurídicos.

Conforme previsão de Turing, os conceitos envolvidos na IA são difíceis de entender e, às vezes, mais difíceis de reconhecer em nossa vida diária. Pela própria natureza, a IA é projetada para fluir de forma transparente nas ferramentas utilizadas para tornar as tarefas mais precisas ou eficientes. Por exemplo, as sugestões de filmes da Netflix ou as listas de reproduções da Spotify.

Pesquisa recente sobre a adoção da inteligência artificial, elaborada pela HubSpot Research Report, destaca que 63% dos entrevistados desconhecem que já a estão usando. A inteligência artificial está posicionada para alterar quase tudo – desde a produtividade pessoal aos processos organizacionais.

Mudanças do tipo, ter a gestão de atividades priorizada automaticamente com base nos hábitos de trabalho da pessoa ou os serviços e produtos personalizados conforme o gosto ou interesse dos clientes (extraído da relação com a instituição e/ou com as mídias sociais). Uma situação com o qual bibliotecários tendem a desenvolver sua atividade.

Independente de quanto a IA altere o processo de trabalho, não teremos todos de ser especialista em computação. No entanto, é importante possuir uma compreensão básica sobre o funcionamento desta tecnologia, até para vislumbrar suas possibilidades e avaliar como poderá tornar o trabalho bibliotecário mais eficiente e inovador no trato das informações e dos serviços aos usuários.

Neste sentido, lista-se alguns dos termos-chave que podem auxiliar o bibliotecário no conhecimento básico do mundo da IA. Ressalte-se que os termos não são um glossário completo sobre o assunto e nem esclarecem o que seja ou não a IA. É apenas uma relação de conceitos e definições gerais para tornar o entendimento e o contato com o tema mais assimilável, além de despertar para o interesse, sem gerar um sentimento de extinção profissional.

Assim, estão relacionados com inteligência artificial, a saber:

Algoritmo: entendido como “um conjunto de regras que definem uma sequência de operações”. Quem faz uso das redes sociais deve estar familiarizado, pois as mídias sociais como: Facebook, Twitter e Instagram usam algoritmos para determinar quais postagens são vistas em um feed de notícias. Também conhecem o uso de algoritmos em mecanismos de pesquisa para obter ranking para seus conteúdos na página de resultados da pesquisa. Quando se fala sobre inteligência artificial, os algoritmos são o que os programas para aprendizagem de máquina usam para realizar previsões a partir de um conjunto de dados analisados. Por exemplo, se um programa de aprendizado de máquina fosse analisar o desempenho de várias bases de dados da biblioteca, ele poderia criar um algoritmo para determinar quais termos, títulos e conteúdos recebem mais acessos para melhorar a curadoria da coleção.

Inteligência artificial: refere-se a uma área de ciência da computação que torna as máquinas capazes de realizarem coisas que exigiriam inteligência cognitiva se realizadas por um ser humano. Inclui tarefas como aprender, ver, falar, socializar e resolver problemas. Não é simplesmente copiar o funcionamento do cérebro humano, neurônio por neurônio. Mas desenvolver máquinas flexíveis capazes de realizar ações que maximizem as chances de sucesso em um objetivo específico.

Bots: conhecidos também como “chatbots” ou “chatterbots”. São programas desenvolvidos para automatizar procedimentos, geralmente repetitivos. Auxiliar as pessoas em ações determinadas ou na busca de informações. É um recurso de uso limitado, porque são programados para extrair dados de uma fonte específica. Em alguns casos, são capazes de se integrar aos sistemas usados para aumentar a produtividade. Por exemplo, GrowthBot – um bot para profissionais de marketing – conecta-se com o HubSpot, o Google Analytics e outras fontes para fornecer informações sobre conteúdo na web. Alguns especialistas argumentam que os bots não se qualificam como IA porque dependem fortemente de respostas ou ações pré-carregadas e não podem “pensar” por si mesmos. No entanto, outros entendem que a capacidade dos bots de compreender a linguagem humana é uma aplicação básica de IA.

Ciência cognitiva: é o estudo interdisciplinar da mente e dos seus processos, extraídos dos fundamentos da filosofia, da psicologia, da linguística, da ciência da computação, da antropologia e da neurociência. A inteligência artificial é apenas uma aplicação da ciência cognitiva que analisa como os sistemas da mente podem ser simulados em máquinas. O termo cognitivo se refere aos tipos de pensamento, incluindo aqueles envolvidos na percepção, resolução de problemas, aprendizado, tomada de decisão, uso da linguagem e da experiência emocional.

Visão Computacional: aplicação da aprendizagem profunda (deep learning) para “entender” as imagens digitais. Ver e entender imagens é uma das funções humanas básicas. Para uma máquina ver uma imagem e, em seguida, descreve-la de forma similar à maneira como o olho humano e o cérebro trabalham juntos, é complicado. Cita-se o caso do carro autômato que precisa reconhecer e responder às luzes de sinalização, aos pedestres e outros obstáculos e ocorrências para ser permitida sua operação na estrada. O bibliotecário pode experimentar o recurso da visão computacional, ao usar o Google’s Quick Draw e treinar um sistema no reconhecimento de imagens. A visão computacional é um recurso que deve auxiliar o bibliotecário na indexação de imagens (fixas e em movimentos).

Mineração de Dados: é o processo computacional que agrega e organiza dados encontrando neles padrões, associações, mudanças e anomalias relevantes. A expressão surgiu pela primeira vez em 1990, em comunidades de bases de dado. Exemplo de aplicação encontrado em empresas de comércio eletrônico como a Amazon que faz uso do processo para analisar os dados do cliente e fornecer sugestões de produtos através da caixa “customers who bought this item also bought“.

Aprendizagem profunda: é um subconjunto avançado sobre a aprendizagem de máquinas. É improvável que o bibliotecário necessite entender o funcionamento interno desse conceito, basta saber que a aprendizagem profunda pode encontrar padrões complexos em conjuntos de dados usando múltiplas camadas de correlações. Realiza isso simulando a maneira pela qual os neurônios operam em camadas no seu próprio cérebro. É por isso que cientistas da computação se referem a este tipo de aprendizado de máquina como uma “rede neural”.

Aprendizado de Máquinas: aprendizado automático ou aprendizagem automática é um subcampo da ciência da computação que evoluiu do estudo de reconhecimento de padrões e da teoria do aprendizado computacional em inteligência artificial. Basicamente, é a capacidade de um programa absorver enormes quantidades de dados e criar algoritmos preditivos. É dito que a IA permite aos computadores aprenderem ao longo do tempo e, provavelmente, aprendam sobre como aprender. Os programas para aprendizado de máquina descobrem padrões em conjuntos de dados que os ajudam a alcançar um objetivo. À medida que analisam mais dados, ajustam os seus comportamentos para atingir seus objetivos de forma ainda mais eficiente. Como a aprendizagem de máquina dá aos computadores capacidade de autoinstrução sem serem explicitamente programados, são descritos como capazes de aprender como uma criança pequena: por experiência própria.

Processamento de Linguagem Natural (NLS): é o campo da ciência da computação e da inteligência artificial preocupado com as interações entre computadores e as línguas humanas (naturais) e, em particular, preocupado com a programação de computadores para processar dados de linguagem natural. É a área que pode tornar os bots mais sofisticados, capazes de entenderem comandos de texto ou de voz. Exemplos: o Siri (assistente pessoal para dispositivos Apple), transpõe a voz para o texto, conduzindo a consulta através de um mecanismo de pesquisa e respondendo de volta na sintaxe humana; a verificação ortográfica em documento do Word; ou o serviço de tradução do Google.

Análise Semântica: um termo relacionado com a linguística para tratar do processo de encadear palavras, orações, frases e parágrafos em uma escrita coerente. Também se refere à construção de linguagem no contexto cultural. Assim, se uma máquina que possui capacidades de processamento de linguagem natural também pode usar a análise semântica, significa que ela pode entender a linguagem humana e extrair dicas contextuais necessárias para entender idiomas, metáforas e outras figuras de linguagem. À medida que aplicativos alimentados por IA avançam em áreas como o da automação de conteúdo, é de se imaginar a utilidade da análise semântica na criação de textos para postagem em blog ou e-books quase indistinguíveis de um conteúdo editado.

Aprendizagem Supervisionada: é um tipo de aprendizado de máquina no qual os seres humanos inserem conjuntos de dados específicos e supervisionam parte do processo. Na aprendizagem supervisionada, os dados da amostra são rotulados e o programa de aprendizagem de máquina recebe um resultado claro para processar.

Dados de Treinamento: são dados fornecidos ao programa de aprendizado de máquina para “aprender” e identificar padrões. Depois, mais conjuntos de dados de teste são fornecidos ao programa de aprendizado para verificar os padrões de precisão.

Aprendizagem Não Supervisionada: é um outro tipo de aprendizado de máquina que faz pouco de envolvimento humano. O programa de aprendizagem de máquina é instruído a encontrar padrões e tirar conclusões por conta própria.

A inteligência artificial não é, em si uma caixa preta, e nem uma guilhotina do bibliotecário. Se pode restringir nosso campo de trabalho, também pode expandi-lo e muito, bem como contribuir para inovar nossas práticas e métodos de atuação. Assim como há, nos recursos de IA, conceitos de aprendizado da máquina, bibliotecários devem se manter, permanentemente, atualizados. Aprimorar suas as habilidades e competências para melhor proveito destas inovações tecnológicas.

Fonte: INFOhome