Página inicial / Ciência de Dados

Ciência de Dados

Tribunais trabalham para mudar a cultura digital interna e adequar à LGPD

Texto por Fernanda Valente

As bases de dados do Poder público dispõem de muitas informações pessoais que vão desde a data de nascimento até a placa do carro dos cidadãos. Com pouca cultura digital, grande parte dos tribunais brasileiros acaba de dar início aos trabalhos para implementar a Lei Geral de Proteção de Dados (LGPD) em seus protocolos e garantir a privacidade, em especial, das pessoas identificadas nos processos. 

TSTJudiciário começa a rever protocolos internos e estruturar tratamento de dados

Em vigor desde setembro, a Lei 13.709/18 prevê um conjunto de normas que, na prática, exigem transparência da administração pública sobre o que é feito com os dados que detém. Como consequência, facilita a fiscalização contra possíveis abusos no uso e até compartilhamento desses dados.

Dentre tribunais superiores, regionais federais e estaduais apenas dois consideram que já estão adequados à LGPD: o Tribunal de Justiça de São Paulo e o de Minas Gerais. Ao menos 22 tribunais responderam ao levantamento da ConJur; todos já formaram grupos de trabalho com 6 a 30 servidores e magistrados empenhados para montar o projeto de implantação. 

As maiores dificuldades nos tribunais, em geral, tratam da mudança de cultura para reestruturação dos processos internos e a falta de diretrizes nacionais específicas para o Judiciário. Além disso, destacam: o volume de dados, a diversidade de sistemas, de resoluções e de fluxos de dados pessoais, e ainda a conformidade com a lei para documentos não estruturados.

Leia a matéria completa publicada pelo Conjur

Por que a integridade dos dados deveria ser prioridade da sua empresa?

Benefícios operacionais de uma cultura corporativa respaldada pela segurança da informação são variados e apontam para oportunidades enriquecedoras

Texto por Luiz Penha

Foto: Adobe Stock

Felizmente, nos últimos anos, a discussão acerca da segurança dos dados armazenados pelas organizações tem ocupado um largo espaço no cenário empresarial do país. Embora seja possível visualizar um contexto em que ainda há muito o que se aprimorar em termos de estrutura de TI e solidez no fluxo de informações, nunca se teve tantas alternativas factíveis no mercado para se reverter essa situação reconhecidamente prejudicial para todos. A Lei Geral de Proteção de Dados (LGPD), por exemplo, foi uma consequência direta dessa tendência irreversível e representou um desejo por mais transparência e privacidade da população no âmbito legal.

Se por um lado, preparar o terreno organizacional para absorver a LGPD é um dos objetivos mais importantes por trás dessa movimentação inovadora, a adoção de uma abordagem estratégica sobre a área de TI provoca um impacto positivo sobre a empresa como um todo, no que acaba se configurando em um diferencial competitivo extremamente bem-vindo. Para responder à pergunta que intitula esse artigo, devemos considerar a abrangência do tema nos dias de hoje.

Permanecer no passado pode ser um erro fatal

A tecnologia simplifica e otimiza processos, transformando radicalmente o cotidiano operacional das empresas. Entre tantas contribuições que justificam o investimento em soluções de automação, além de um enfoque recorrente na necessidade de se aderir ao avanço tecnológico, como explicar o nível elevado de organizações que ainda apoiam suas atividades em sistemas manuais? Nesse sentido, o caminho para a conscientização não é condenar os que permanecem alheios à inovação, mas conceder um olhar objetivo sobre os motivos para se deixar esse passado para trás.

Leia a matéria completa publicada pelo CIO

LGPD e a nova era de dados

Uma coisa é certa, a LGPD chegou para ficar! Desde o dia 18 de setembro, a Lei nº 13.709 entrou em vigor, e tem um objetivo mais do que claro: tornar as relações entre instituições e cidadãos mais transparentes, oferecendo ainda um controle maior sobre os dados pessoais coletados. Com isso, muitas organizações estão correndo contra o tempo para ajustar seus processos e sistemas, a fim de não sofrer penalidades futuras, que passarão a valer a partir de agosto de 2021.

Desde que a legislação europeia passou a valer, o Brasil vem desenhando o melhor formato para a lei por aqui. É inegável que a LGPD trará inúmeros benefícios a médio e longo prazo. Um deles é a otimização de processos, uma vez que as instituições saberão exatamente quais dados pessoais precisam de fato para as suas operações. Outro benefício é melhoria da segurança da informação, já que precisarão de um conjunto de controles para proteger os dados pessoais em tratamento, evitando assim qualquer vazamento.

O que muda para melhor, na prática, é o avanço da cultura da privacidade, uma vez que essa legislação não será momentânea, mas sim algo que transformará para sempre a dinâmica da sociedade, de modo geral. É possível comparar esse novo momento com algo que aconteceu nos anos 90 com a chegada do Código de Defesa do Consumidor (CDC), que causou estranheza e dúvidas sobre sua eficácia na época, mas que hoje já faz parte do nosso dia a dia.

Embora muitas empresas tenham deixado para a última hora, a adequação à LGPD é algo contínuo, que acompanha a evolução das próprias organizações e os seus relacionamentos com as pessoas. O cidadão terá uma série de direitos, já que é o dono de seu próprio dado pessoal. Um dos destaques da Lei é a questão do uso e compartilhamento de dados coletados, que precisará ser claro e explícito, aumentando assim a transparência. Todos saberão o que de fato será coletado, armazenado, compartilhado e, principalmente, a finalidade da coleta. Além disso, as relações com parceiros e fornecedores também precisam estar claras, com a definição clara dos papeis de controlador e operador.

Leia a matéria completa publicada pelo TI INSIDE Online

Tribunais de Contas agilizam fiscalização com inteligência artificial

Ferramenta é usada para ajudar nas fiscalizações de contas

Texto por Camila Boehm

Tribunais de Contas do Brasil têm utilizado a inteligência artificial (IA) para auxiliar na fiscalização de contas de governos e prefeituras, o que pode levar à economia em contratos, denúncias de irregularidades e, finalmente, à transparência perante a sociedade, segundo avaliação da Associação dos Membros de Tribunais de Contas do Brasil (Atricon).

O presidente da Atricon, Fábio Túlio Filgueiras Nogueira, também conselheiro do Tribunal de Contas do Estado da Paraíba (TCE-PB), avalia que a proliferação de inovação tecnológica propiciou a presença de mecanismos de inteligência artificial no âmbito da administração pública, sobretudo nos tribunais de Contas. Segundo ele, as normas brasileiras de auditoria do setor público já preconizam o valor e benefício que essas ferramentas proporcionam.

“Praticamente todos os tribunais de Contas do Brasil investiram muito em inteligência artificial, um dos ramos da ciência da computação que buscam símbolos computacionais e que criam mecanismo que simulam a capacidade humana de pensar e resolver problemas, esse é o grande desafio, o uso de técnicas de inteligência artificial para subsidiar ações de controle”, disse.

Para ele, a implementação de medidas voltadas à gestão de informações estratégicas, usando ferramentas de inteligência, pode ajudar no tratamento de grandes massas de dados. “Hoje os tribunais de Contas do Brasil são depositários do maior acervo de informações referente ao setor público, à administração pública. Não adianta ter um acervo expressivo se não tem instrumentos, ferramentas, tecnologia suficiente para fazer bom uso desses dados.”

Nogueira afirma que os tribunais de Contas do país têm investido no desenvolvimento dessas ferramentas, feitas por técnicos das próprias cortes e também em parceria com a academia. “Os tribunais desenvolveram equipes de TI e os exemplos são expressivos no Brasil inteiro, porque o volume de dados é tão grande, então você tem que criar ferramentas que estabeleçam determinadas malhas”, disse.

Ele explicou que, se a ferramenta aponta alguma eventual distorção de determinado procedimento, aquele procedimento automaticamente já cai naquela malha, como um sinal de alerta. “Com isso, a gente ganha tempo, otimiza a fiscalização. Aqueles processos que as ferramentas não conseguem identificar nenhuma irregularidade, eles tramitam sem prejuízo, sem perda de tempo, para que outros casos sejam analisados.”

Exemplos

Um dos exemplos citados pela Atricon ocorreu no estado de Goiás, em que uma ferramenta de inteligência artificial foi utilizada pelo Tribunal de Contas do Estado para a análise de dados e acabou identificando gastos de publicidade em outras dotações. Esse mecanismo possibilitava que os gestores afirmassem que gastavam uma quantia em saúde ou educação, por exemplo, enquanto, na verdade, o gasto era direcionado para publicidade. A ferramenta de tecnologia pegou este truque.

O programa utilizado analisou 152 mil empenhos, identificando 124 com características de gastos com publicidade e propaganda classificados com natureza de despesa não relacionado diretamente a essa finalidade. Somados, eles tiveram valor total empenhado superior a R$ 13 milhões, para o período de 2015 a 2018, que na prática foi utilizado em publicidade e não na área para qual foi destinado oficialmente.

Já a plataforma Preço de Referência, lançada em abril deste ano e desenvolvida pelo TCE-PB em parceria com Universidade Federal da Paraíba e o governo do estado, possibilita a cotação de produtos. Segundo a Abricon, essa é a primeira ferramenta do país capaz de fazer cotações, em tempo real, de preços considerando os três perfis de consumidor: pessoa física, pessoa jurídica e órgãos públicos.

Desde seu lançamento, já foram gerados quase 5 mil certificados eletrônicos de Cotação – nome dado ao documento eletrônico contendo cotações de vários produtos de uma licitação. Para a entidade, isso demonstra que diversos órgãos e entidades públicas têm utilizado a ferramenta, que pode ajudar os gestores nos processos de compras com uma maior precisão na geração dos preços usados nos processos licitatórios.

As cotações de preços são geradas a partir do processamento de quase 1,4 bilhão de cupons e notas fiscais eletrônicas, considerando mais de 4 milhões de tipos de produtos distintos vendidos na Paraíba.

Segundo Nogueira, há a possibilidade de nacionalizar o uso dessa ferramenta por meio de articulação com o Tribunal de Contas da União (TCU). “Nós já fizemos reuniões técnicas [com o TCU] com o objetivo de tentar levar essa ferramenta para o Brasil inteiro, disponibilizar em todos os estados da federação, inclusive para o governo federal, para que possa servir de suporte ao gestor público, aquele que tem a obrigação de adquirir equipamentos e insumos”, disse.

“Um dos projetos da Atricon é o compartilhamento de experiências. Se o TCE da Paraíba desenvolveu uma ferramenta interessante, a gente põe no sistema e deixa à disposição de outro tribunal. Para economizar recursos e tempo. Às vezes o tribunal de São Paulo está desenvolvendo uma ferramenta ou tem a intenção de desenvolver uma ferramenta para tratar de determinado objeto e outro tribunal já tem”, acrescentou.

Fonte: Agência Brasil

Tribunal de Justiça de SP blinda informações e tem transparência sob dúvida

Texto por José Marques, Folhapress

ARQUIVO* SÃO PAULO, SP, 11.10.2019 – Fachada do Palácio da Justiça de São Paulo, sede do Tribunal de Justiça de São Paulo, na região central de São Paulo. (Foto: Eduardo Knapp/Folhapress)

Em meio a sucessivas polêmicas sobre a transparência dos gastos do Tribunal de Justiça de São Paulo, a corte publicou uma norma segundo a qual toda a informação gerada dentro do órgão deve ser considerada como seu patrimônio e deve ser protegida, sob a possibilidade de punições criminal, civil e administrativa.

A portaria, assinada pelo presidente Geraldo Pinheiro Franco e publicada no Diário da Justiça Eletrônico da última quarta-feira (26), atualiza a Política de Segurança da Informação (PSI) do tribunal.

A publicação da norma levantou questionamentos internos, tanto de servidores como da magistratura, sobre a probabilidade de ser utilizada para responsabilizar quem dá acesso a dados que o Judiciário paulista não divulga a jornalistas e pesquisadores.

Consultados pela reportagem, especialistas em transparência afirmam que é importante que o tribunal tenha diretrizes de segurança para dados pessoais e sigilosos que tramitam na corte.

No entanto, dizem que essas diretrizes deveriam estar subordinadas a uma política de transparência de informações, deixando claro que publicidade é a regra, e o sigilo, exceção -o que não identificaram nesse plano aprovado por Pinheiro Franco.

Leia a matéria completa em Yahoo Notícias

Gestão de dados científicos: por onde começar?

GESTÃO DE DADOS CIENTÍFICOS: POR ONDE COMEÇAR?

Cada vez mais o conceito de Ciência Aberta e seus pilares entram na pauta e nas recomendações de melhores práticas para a realização de pesquisa. Um desses pilares é a gestão de dados e, sempre que possível, seu compartilhamento, respeitando privacidade e segurança dos envolvidos, propriedade intelectual, determinações legais. Mas, de que dados estamos falando? Como se faz gestão de dados científicos?

O seminário visa apresentar a pesquisadores e bibliotecários os conceitos ciência aberta, gestão e compartilhamento de dados, questões legais, melhores práticas que potencializam o avanço da ciência e da geração de conhecimento, além dos benefícios do trabalho colaborativo entre esses dois grupos profissionais.

Palestras conceituais e exemplos de gestão de dados por instituições acadêmicas e de pesquisa compõem a programação, além de um workshop ministrado para bibliotecários e pesquisadores (vagas limitadas – as inscrições serão abertas durante o evento).

Mais informações: https://doity.com.br/gestao-de-dados-cientificos-por-onde-comecar/ 

As competências de Bibliotecários Universitários na Gestão de Dados Científicos na Ciência Aberta

Esta live trará alguns conceitos baseados na experiência e pesquisas recentes sobre a Ciência Aberta e o bibliotecário de dados. Abordando as competências e habilidades necessárias para o Bibliotecário de Dados atuar em um novo perfil profissional. A palestrante também fará relatos de sua experiência como estudante de doutorado no Projeto DataONE.

Transformar dados em informação pode garantir sobrevivência das empresas em 2020

Texto por Anderson Mancini

Quase metade das empresas não consegue transformar os dados que acumula em informações de valor. É o que concluiu uma pesquisa global e anual da ASG Technologies Group, empresa líder no fornecimento de soluções de Gerenciamento de Informações e Sistemas de TI. O estudo foi feito a partir de entrevistas com mais de 150 profissionais do setor que trabalham em companhias com mais de 500 funcionários. Seis em cada dez dos participantes afirmaram ainda que a tomada de decisões no último ano foi baseada em dados imprecisos, desatualizados ou ruins como fonte de informação. Será possível desenhar um futuro em cima de dados imprecisos?

A resposta é óbvia. Ou, pelo menos, deveria ser. Vivemos a chamada era da informação não só por causa das redes sociais que conectam o mundo, mas por entender que os dados são o bem mais precioso que alguém pode deter. Seu nome, idade, gostos e preferências, local de residência, lugares onde costuma frequentar: tudo isso ajuda a determinar um padrão de comportamento essencial para as marcas desenvolverem produtos para você – e, assim, serem mais assertivas na conversão da compra e da experiência do cliente. Você já deve ter sido surpreendido por uma empresa que “adivinhou” um item que você estava querendo, não é mesmo? Esse é um exemplo de como utilizar os dados nas ações de marketing.

Muitas organizações não têm habilidade ou não desenvolveram inteligência de negócio voltada a aproveitar ao máximo o que os dados podem proporcionar. A cultura data-driven, que estabelece níveis de progresso com base em dados, aumenta a vantagem competitiva da empresa, resultando em mais assertividade na tomada de decisão.

Leia a matéria completa publicada no site Meio Ambiente Rio.

Diretrizes do Programa de Dados Abertos da Justiça Eleitoral do Tocantins são aprovadas pela Corte

Texto por Eva Bandeira (ASCOM/TRE-TO)

O Tribunal Regional Eleitoral do Tocantins (TRE-TO) regulamentou, por meio da Resolução nº 475/2020, as diretrizes do Programa de Dados Abertos (PDA) no âmbito da Justiça Eleitoral do Tocantins. A medida visa atender aos princípios da publicidade, transparência e eficiência com a disponibilização de informações para a sociedade.

O PDA/TRE-TO constitui instrumento de planejamento e coordenação das ações de disponibilização de dados do Tribunal e é parte das iniciativas e projetos direcionados à transparência. A implementação das atividades previstas amplia a transparência dos atos de gestão do Tribunal, aperfeiçoa a divulgação de suas informações à sociedade e promove o controle social, coerente com uma visão ampla e de longo prazo focada na aproximação da instituição com a sociedade.

De acordo com o documento, o foco do processo de abertura de dados é o cidadão e, por isso, o objetivo maior é fornecer as informações que sejam relevantes à sociedade e promover a participação social. Para isso, além de identificar as informações de valor para o cidadão, a priorização da disponibilização das informações deve considerar prioritariamente os requerimentos de acesso à informação encaminhados pela sociedade por meio de canal de comunicação estabelecido pelo TRE-TO para esse propósito.

Acesse a matéria completa em O GIRASSOL e conheça mais sobre o programa de dados abertos do TRE-TO. 

O direito à proteção de dados e a tutela da autodeterminação informativa

Por Marcus Vinicius Furtado Coêlho

“Não existem mais dados insignificantes”, essa foi a constatação precoce e cirúrgica do Tribunal Constitucional Alemão em 1983, em julgamento que marcaria um novo paradigma na tutela jurídica dos dados em todo o mundo.

Embora não se possa dizer que o direito à intimidade, à privacidade e ao sigilo de dados e comunicações pessoais sejam temas novos no debate jurídico, a velocidade das inovações tecnológicas e a importância crescente dos dados como um “ativo” fundamental na era da informação têm impulsionado a modernização do direito com vistas a assegurar, de forma ampla e efetiva, um direito fundamental à proteção de dados pessoais.

O livre desenvolvimento da personalidade impõe o asseguramento de uma série de garantias fundamentais no plano constitucional, entre as quais destaca-se o direito à autodeterminação de dados e informações pessoais. Essas informações podem ser definidas, na compreensão de Schertel[1], como sinais utilizados na comunicação, que servem para identificar uma pessoa e, quando assumem a forma impressa, transformam-se em dados pessoais.

A boa doutrina constitucional versa sobre a existência de um “(…) direito geral à autodeterminação informativa que se traduz, fundamentalmente, na faculdade de o particular determinar e controlar a utilização de seus dados”[3].

Nesse sentido, o direito à autodeterminação de dados ou informações permite que os sujeitos tenham liberdade para dispor sobre suas informações pessoais tais como registro de nascimento e casamento, passaporte, extratos bancários e telefônicos. Além disso, também impõe limites em face do legislador, visto que proíbe que as informações pessoais disponibilizadas perante o Estado sejam utilizadas para fins diversos daqueles previstos na legislação[4]. Dessa maneira, os indivíduos são capazes de determinar, autonomamente, a utilização das suas próprias informações e dados.

Foi essa a garantia constitucional firmada pelo Tribunal Constitucional Federal Alemão no bojo de Reclamações Constitucionais ajuizadas contra o recenseamento geral da população que fora determinado pela Lei do Censo de 1983. 

A Lei Alemã exigia que os dados sobre profissão, moradia e local de trabalho dos cidadãos fossem disponibilizados ao Estado para apurar o estágio de crescimento populacional, a distribuição espacial da população e características demográficas e sociais. Além disso, também autorizava o Estado comparar as informações concedidas pelos indivíduos com aquelas constantes nos registros públicos. O objetivo era preencher as lacunas informativas havidas nos órgãos públicos federais, estaduais e municipais para fins de execução administrativa[5].

Na brilhante decisão, o Tribunal asseverou que “hoje, com ajuda do processamento eletrônico de dados, informações detalhadas (…) de uma pessoa determinada (…) podem ser, do ponto de vista técnico, ilimitadamente armazenados e consultados a qualquer momento, a qualquer distância e em segundos”. “Além disso, podem ser combinados, sobretudo na estruturação de sistemas de informação integrados, com outros bancos de dados, formando um quadro da personalidade relativamente completo ou quase, sem que a pessoa atingida possa controlar suficientemente sua exatidão e seu uso. Com isso, ampliaram-se, de maneira até então desconhecida, as possibilidades de consulta e influência que podem atuar sobre o comportamento do indivíduo em função da pressão psíquica causada pela participação pública em suas informações privadas.

A autodeterminação individual pressupõe, porém — mesmo sob as condições da moderna tecnologia de processamento de informação —, que ao indivíduo está garantida a liberdade de decisão sobre ações a serem procedidas ou omitidas e, inclusive, a possibilidade de se comportar realmente conforme tal decisão. Quem não consegue determinar com suficiente segurança quais informações sobre sua pessoa são conhecidas (…) pode ser inibido substancialmente em sua liberdade de planejar ou decidir com autodeterminação. Uma ordem social e uma ordem jurídica que a sustente, nas quais cidadãos não sabem mais quem, o que, quando, e em que ocasião se sabe sobre eles, não seriam mais compatíveis com o direito de autodeterminação na informação.

A decisão histórica reconheceu, com base no direito geral da personalidade consagrado na Grundgesetz, a Constituição Alemã, que “o livre desenvolvimento da personalidade pressupõe, sob as modernas condições do processamento de dados, a proteção do indivíduo contra levantamento, armazenagem, uso e transmissão irrestritos de seus dados pessoais, assegurando, assim, a proteção à autodeterminação informativa”.

Acesse a matéria completa publicada no Conjur e compreenda o contexto da autodeterminação informativa no contexto da Lei Geral de Proteção de Dados (LGPD) brasileira. 

NA ERA DA PROTEÇÃO DE DADOS PESSOAIS

Texto por Jornal da Cidade BH

FOTO / Arquivo Pessoal

Entrevista. Advogado explica como a nova legislação pode proteger pessoas e empresas

Vivemos numa era de grandes dados. Já dizia Tim Berners Lee, um dos criadores da internet:  We need raw data, now! (Nós precisamos de dados crus, agora!). A ideia é que seja incentivada a coleta de dados, ainda que sem um tratamento prévio (portanto, “crus”), para que possa ocorrer o maior número de associações entre eles:  o cruzamento de dados leva à descoberta de diferentes usos e ganhos informacionais.

Segundo o advogado Henrique Cunha Souza Lima, sócio do Cunha Souza Lima Advogados e professor em Direito e Inteligência Artificial, com o progressivo aumento nas práticas de coleta e uso de dados, contudo, os riscos inerentes à essa tendência também aumentam significativamente. Afinal, não apenas os dados pessoais estão mais cobiçados, logo mais vulneráveis, mas o mercado passou a valorizar os players que proporcionam um grau adequado de segurança de informação.

Nesta entrevista ao JORNAL DA CIDADE, o advogado mostra algumas possibilidades para as empresas se adequarem à nova legislação sobre proteção de dados pessoas na Internet.

Por que corremos riscos?

Em 2016, foi editado, na União Europeia, o Regulamento Geral de Proteção de Dados Pessoais, conhecido como GDPR (General Data Protection Regulation). Ele revolucionou a disciplina de dados pessoais na Europa e no mundo na medida em que conta com uma regra de ultraterritorialidade. O regulamento entrou em vigor em maio de 2018 e naquele mesmo ano foram disparados diversos e-mails de empresas informando a alteração de suas políticas de privacidade. Foi quando o Brasil editou sua própria lei para regular como os dados pessoais devem ser tratados: a 13.709/2018, conhecida como LGPD (Lei Geral de Proteção de Dados Pessoais). Tinha início de vigência prevista para agosto de 2020, motivo pelo qual começou, no País, verdadeira corrida para adequação aos termos da nova legislação.

Acesse a entrevista completa em Jornal da Cidade.

USP e Fapesp criam repositório de informações clínicas para subsidiar pesquisas sobre covid-19

Plataforma conta com dados de 75 mil pacientes, 1,6 milhão de exames e 6,5 mil dados de desfecho; iniciativa também conta com participação do grupo Fleury e dos hospitais Sírio-Libanês e Israelita Albert Einstein

Texto por Elton Alisson, da Agência FAPESP

Pesquisadores de universidades e instituições de pesquisa de todo o país passam, a partir de hoje (17/06) a ter acesso ao COVID-19 Data Sharing/BR, o primeiro repositório do país com dados demográficos e exames clínicos e laboratoriais anonimizados de pacientes que fizeram testes para COVID-19 em unidades laboratoriais e hospitais do Estado de São Paulo.

O objetivo da plataforma é compartilhar informações clínicas de pacientes anonimizados para subsidiar pesquisas científicas sobre a doença nas diversas áreas de conhecimento.

A base de dados compartilhados é resultado de uma iniciativa da FAPESP, em parceria com a Universidade de São Paulo (USP), e já conta com a adesão de hospitais e unidades laboratoriais de atendimento a pacientes.

A parceria reúne, nesta primeira etapa, o Grupo Fleury e os hospitais Sírio-Libanês e Israelita Albert Einstein, que disponibilizaram informações, infraestrutura, tecnologias e recursos humanos próprios para viabilizar o compartilhamento de dados. A FAPESP está contatando outras instituições de atendimento a pacientes para compartilhar informações no repositório COVID-19 Data Sharing/BR.

Luiz Eugênio Mello, diretor científico da FAPESP – Foto: Léo Ramos Chaves / Pesquisa Fapesp

“A ideia central da plataforma é subsidiar a pesquisa científica sobre a COVID-19 ao compartilhar dados que não seriam disponibilizados de outra forma, de modo a mobilizar a comunidade de cientistas da computação, matemáticos e analistas de informações, para que possam contribuir com novas ideias para o enfrentamento da atual epidemia da doença”, disse Luiz Eugênio Mello, diretor científico da FAPESP, durante coletiva de imprensa on-line para o lançamento do repositório, realizada pela FAPESP.

O repositório abrigará, inicialmente, dados abertos e anonimizados de 75 mil pacientes, 6.500 dados de desfecho e um total de mais de 1,6 milhão de exames clínicos e laboratoriais realizados em todo o país pelo Grupo Fleury e na cidade de São Paulo pelos hospitais Sírio-Libanês e Israelita Albert Einstein desde novembro de 2019.

Ainda que o primeiro caso da doença no Brasil tenha sido registrado em fevereiro, pelo Hospital Albert Einstein, o período de cobertura dos dados permitirá que as pesquisas analisem o histórico de saúde dos pacientes, bem como busquem evidências de sintomas da COVID-19 em pacientes atendidos anteriormente. Novos dados serão inseridos pelo Grupo Fleury, Hospital Sírio-Libanês e Einstein regularmente.

O repositório disponibilizará três categorias de informação: dados demográficos (gênero, ano de nascimento e região de residência do paciente) e dados de exames clínicos e/ou laboratoriais, além de informações, quando disponíveis, sobre a movimentação do paciente, como internações, por exemplo, e desfecho dos casos, como recuperação ou óbitos. Em uma segunda etapa, o COVID-19 Data Sharing/BR abrigará também dados de imagens, como radiografias e tomografias.

“Em termos de valores, a obtenção desses dados por outros meios representaria um custo da ordem de centenas de milhões de reais. A gratuidade no acesso a essas informações será possível em razão da disponibilidade e generosidade dessas três instituições participantes da iniciativa”, disse Mello.

João Eduardo Ferreira, professor do Instituto de Matemática e Estatística e superintendente de Tecnologia da Informação da USP – Foto: Cecília Bastos/USP Imagens

O lançamento do repositório tem um cronograma de três etapas. Uma versão pequena do conjunto de dados será inicialmente disponibilizada hoje (17/06) para um período-piloto de consultas. Dessa forma, a comunidade de pesquisa poderá baixar os dados e começar a analisá-los e visualizá-los usando técnicas de ciência de dados.

Até o dia 24 de junho, os grupos de pesquisa interessados poderão enviar dúvidas e comentários para os responsáveis pelo repositório COVID-19 Data Sharing/BR pelo e-mail covid19datasharing@fapesp.br. Esse feedback da comunidade durante o período-piloto será usado para melhorar as informações e a documentação do repositório. O conjunto inicial completo dos dados abertos e anonimizados será disponibilizado ao público a partir do dia 1º de julho.

“Neste primeiro momento iremos disponibilizar um conjunto de dados-piloto, para análise exploratória, para à medida que os analistas de dados comecem a usá-los sejam melhorados”, disse João Eduardo Ferreira, professor do Instituto de Matemática e Estatística (IME) da USP, participante do projeto.

Avanço na compreensão da doença

Edgar Rizzatti, diretor-executivo médico do Grupo Fleury – Foto: Reprodução/Grupo Fleury

O diretor-executivo médico do Grupo Fleury, Edgar Rizzatti, destacou que o repositório permitirá o acesso a dados para a realização de pesquisas não só pela comunidade científica, mas também para o desenvolvimento de soluções tecnológicas por empreendedores e startups.

“Desde o início da pandemia temos sido procurados por startups, pesquisadores de universidades e instituições de pesquisa, em iniciativas isoladas ou em colaboração, interessados na disponibilização de dados anonimizados de pacientes com COVID-19 para o desenvolvimento de projetos de pesquisa ou para o desenvolvimento de estratégias em ciências de dados ou de algoritmos de inteligência artificial. Por isso, acredito que essa iniciativa pioneira permitirá um melhor entendimento da COVID-19”, afirmou.

Luiz Fernando Lima Reis, diretor de ensino e pesquisa do Sírio-Libanês – Foto: Divulgação/Finep

A opinião de Rizzatti é compartilhada por Luiz Fernando Lima Reis, diretor de ensino e pesquisa do Sírio-Libanês. “A base de dados possibilitará à comunidade científica ter acesso a dados que refletem a situação atual da epidemia de COVID-19 no Brasil e as características que a doença adquiriu no país, que só poderá ser combatida por meio de soluções baseadas em dados”, disse.

O pesquisador ressaltou o cuidado tomado pelo comitê gestor do repositório em garantir a anonimização de todos os dados dos pacientes, de forma a preservar suas identidades, e atender todas as exigências da Lei Geral de Proteção de Dados.

 

Luiz Vicente Rizzo, diretor-superintendente de pesquisa do Albert Einstein – Foto: Reprodução/Albert Einstein

O diretor-superintendente de pesquisa da Sociedade Beneficente Israelita Brasileira Albert Einstein, Luiz Vicente Rizzo, ressaltou que o momento atual representa uma oportunidade para mostrar a pujança da pesquisa que também tem sido feita em instituições não governamentais voltadas ao combate da COVID-19.

“Temos hoje no Einstein 68 projetos de pesquisa em andamento relacionados à COVID-19, iniciados nos últimos seis meses, e mais 113 em vias de ser inicializado. Isso mostra que nós, como instituições não governamentais, temos um papel importante e podemos contribuir muito para a pesquisa no Estado de São Paulo e no país”, disse.

Origem do repositório

A ideia de criação do repositório COVID-19 Data Sharing/BR surgiu há pouco mais de um mês e foi concretizada rapidamente graças a outro projeto lançado pela FAPESP no final do ano passado, a Rede de Repositórios de Dados Científicos do Estado de São Paulo.

A rede, que levou quase três anos para ser desenvolvida, disponibiliza em uma plataforma aberta dados associados a pesquisas científicas desenvolvidas em todas as áreas de conhecimento por instituições de ensino superior e pesquisa públicas no Estado de São Paulo. A mesma plataforma abrigará também o repositório COVID-19 Data Sharing/BR.

Sylvio Canuto, pró-reitor de Pesquisa da USP – Foto: Marcos Santos / USP Imagens

O desenvolvimento da rede, que inclui um buscador de metadados, contou com o envolvimento das seis universidades públicas do Estado de São Paulo – USP, Universidade Estadual de Campinas (Unicamp), Universidade Estadual Paulista (Unesp), Universidade Federal de São Carlos (UFSCar), Universidade Federal do ABC (UFABC) e Universidade Federal de São Paulo (Unifesp) –, o Instituto Tecnológico de Aeronáutica (ITA) e a Embrapa Informática Agropecuária (CNPTIA/Embrapa).

“O compartilhamento de dados é essencial para enfrentar uma situação como a que estamos vivendo agora e que deverá ser perene”, disse Sylvio Canuto, pró-reitor de pesquisa da USP.

Na avaliação de Cláudia Bauzer Medeiros, professora do Instituto de Computação da Unicamp e participante do projeto, o repositório de dados será útil não só para pesquisas sobre COVID-19, mas também no futuro, para eventualmente orientar políticas públicas para evitar que situações como a atual voltem a acontecer ou minimizar os efeitos de futuras pandemias.

“O repositório reúne dados produzidos por brasileiros, que irão contribuir para a ciência mundial”, afirmou.

Este texto foi originalmente publicado por Agência Fapesp de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

Fonte: Jornal da USP

Tribunal de Contas e acesso a dados

O Sistema Nacional de Controle Externo está mais forte desde o dia 27 de março deste ano

Texto por Guilherme Maluf

O Sistema Nacional de Controle Externo está mais forte desde o dia 27 de março deste ano, após a histórica decisão proferida por unanimidade pelo Plenário do Supremo Tribunal Federal (STF) nos autos da ação de Suspensão de Segurança (SS 5203/MT), transitada em julgado em 14/5/2020 (sem possibilidade de reforma via recurso, portanto).

No caso concreto, a decisão do STF assegura como plena e constitucional a competência do Tribunal de Contas de Mato Grosso para acessar, no exercício do controle externo, dados e informações fiscais custodiadas ou produzidas por órgãos e entidades públicas estaduais.

Para a Suprema Corte, “não há que se falar em ilegalidade, tampouco em inconstitucionalidade de decisões proferidas pelas cortes regionais de contas solicitando informações fiscais, visto que quando assim procedem, atuam no estrito exercício de sua função constitucional”.

Nas palavras do relator da matéria, ministro Dias Toffoli, Presidente do Supremo Tribunal Federal, “o acesso às informações solicitadas pelo tribunal de contas, mesmo que abrangendo dados eventualmente cobertos por sigilo fiscal, não resulta em quebra do sigilo dos dados”, visto que “o trâmite das informações ocorrerá entre órgãos da administração estadual, sem qualquer destinação a terceiros, mas apenas aos auditores do Tribunal de Contas para instruir a análise da atividade e eficiência arrecadatória do Estado de Mato Grosso”.

A histórica decisão cristaliza a função constitucional dos Tribunais de Contas de fiscalização de macroprocessos de gestão relacionados à arrecadação de receitas públicas tributárias. E afirma que o direito ao sigilo fiscal não se sobrepõe ao interesse público e não pode impedir ou dificultar a concretização do interesse coletivo.

O quão eficientes ou funcionais são os processos de controle, cobrança e arrecadação de tributos junto aos contribuintes? O esforço arrecadadador estatal é diretamente proporcional ao porte e à capacidade contributiva de empresas?No caso concreto, a decisão do STF assegura como plena e constitucional a competência do Tribunal de Contas de Mato Grosso para acessar, no exercício do controle externo, dados e informações fiscais custodiadas ou produzidas por órgãos e entidades públicas estaduais

De que mecanismos (humanos, tecnológicos e financeiros) dispõe o fisco para rastrear práticas de sonegação fiscal? Há plena eficiência no controle, cobrança e efetiva arrecadação de créditos inscritos em Dívida Ativa tributária em relação aos grandes devedores?

Em que medida o processo de contencioso tributário afeta a arrecadação tributária?

Essas são algumas das muitas perguntas que poderão, a partir da histórica decisão do STF, ser efetivamente respondidas à sociedade pelos Tribunais de Contas, com a riqueza de elementos (dados e informações fiscais) colhidos junto aos fiscos estaduais e municipais.

Obviamente, a coleta e o tratamento de dados e informações fiscais de contribuintes deverão ocorrer em ambiente (físico ou tecnológico) seguro. O sigilo dos dados e informações fiscais será salvaguardado pelos Tribunais de Contas.

Com esse objetivo, expedimos determinação à Secretária-Executiva de Tecnologia da Informação do Tribunal de Contas de Mato Grosso, para que garanta os meios e recursos de tecnologia da informação necessários ao resguardo do sigilo de dados fiscais sob acesso do TCE MT, em cumprimento à Política de Segurança da Informação da Casa, tudo nos termos do art. 15, II, da Resolução Normativa TCE MT 10/2010.

A decisão proferida pelo STF nos autos da SS 5203/MT concretizou, sem dúvidas, uma nova, robusta e importante prerrogativa funcional aos Tribunais de Contas, ao franquear-lhes o acesso a dados e informações fiscais visando ao exame da eficiência arrecadatória tributária de Estados e Municípios.

Acesso que certamente se dará de forma responsável pelas Cortes de Contas, corresponsáveis que são pela manutenção do sigilo fiscal dos dados e informações recebidas dos jurisdicionados.

Ao Supremo Tribunal Federal, pela sábia e republicana decisão, todo o nosso respeito e apoio institucional, na certeza de que, do acesso responsável a dados e informações fiscais pelas Cortes de Contas, nascerão muitas e melhores fiscalizações e julgamentos sobre eficiência na arrecadação de receitas tributárias estaduais e municipais.

O objetivo final é a confirmação de valores como justiça e equidade fiscal, com o esperado incremento da arrecadação estatal.

Tudo isso em benefício do melhor custeio das políticas públicas, que é o que efetivamente interessa ao cidadão.

GUILHERME ANTONIO MALUF é presidente do Tribunal de Contas de Mato Grosso (TCE-MT).

Fonte: Diário de Cuiabá

AS TECNOLOGIAS DE GEOLOCALIZAÇÃO E CRISE EPIDEMIOLÓGICA: REFLEXÕES PARA UMA SOLUÇÃO CONCILIATÓRIA

Texto por Oscar Carlos Cidri Neto

Alex Mecabô – Mestrando em Direito das Relações Sociais na Universidade Federal do Paraná/UFPR. MBA em Gestão e Business Law pela FGV. Pesquisador do Grupo de Estudos em Direitos Autorais e Industriais – GEDAI/UFPR. E-mail: mecabo.alex@gmail.com

Alice de Perdigão Lana – Mestranda em Direito das Relações Sociais na Universidade Federal do Paraná/UFPR. Bolsista CAPES. Pesquisadora do Grupo de Estudos em Direitos Autorais e Industriais – GEDAI/UFPR e do Grupo Direito, Biotecnologia e Sociedade – BIOTEC/UFPR. E-mail: aliceplana@gmail.com

Natalí de Lima Santos – Pós-graduanda em Big Data e Comunicação. Especialista em Direito da Comunicação Digital. Bacharel em Biblioteconomia. Pesquisadora do Grupo de Estudos em Direitos Autorais e Industriais – GEDAI/UFPR. E-mail: santosnathlima@gmail.com

Revisão: Roberto Nelson Brasil Pompeo Filho

A COREIA DO SUL E A COLETA DE DADOS SIGILOSOS  NO COMBATE DO COVID-19

A solução da Coreia do Sul para controle do COVID-19, intensamente comentada nos veículos de notícias poucos meses atrás, já parece old news. O rastreamento por meio de aplicativos de celular, que coletavam dados detalhados (e às vezes sigilosos) dos cidadãos, como histórico de GPS[1], dividiu a opinião internacional.

Enquanto a maioria aplaudia o aumento da vigilância por um “bem maior” (a contenção da disseminação do Sars-Cov-2), especialistas da área da privacidade alertavam para os inúmeros possíveis efeitos deletérios de um controle tão amplo da vida de cada cidadão por parte do Estado.

Rapidamente, assim, a discussão se polarizou: saúde pública versus privacidade. Colocada dessa forma, a escolha parece fácil. A saúde pública, especialmente em tempos de pandemia, é uma prioridade geral; a privacidade, por outro lado, esse conceito tão abstrato e vilipendiado no século XXI, é facilmente deixada de lado. Mas será que realmente é necessário escolher um ou outro? As tecnologias de rastreamento, úteis para enfrentar a pandemia, não necessariamente demandam violações de privacidade em massa.

Conforme explica Mariana Valente, diretora do InternetLab, existem dois grandes sistemas[2]. O primeiro usa dados de geolocalização – informações de onde geograficamente o celular está ou esteve em determinado momento. Os celulares podem ser localizados por meio da triangulação de antenas. Quem destaca essa localização geralmente são as empresas de telecomunicação, mas as empresas de tecnologia, provedoras de serviços de internet, também coletam tais dados.

O  TRATAMENTO DOS DADOS NA TECNOLOGIA CONTACT TRACING

Os dados de geolocalização podem ser usados de forma agregada ou individualizada. Na forma agregada, os dados são vistos como conjunto, para fins estatísticos, servindo para o monitoramento de concentração – o que permite entender se as medidas de isolamento estão sendo eficazes. Não é possível ver exatamente o que cada indivíduo fez. Já na utilização de forma individualizada, os dados de geolocalização podem dar o trajeto minucioso de cada indivíduo.

Essas tecnologias não são adequadas para o contact tracing – rastrear com quem alguém potencialmente infectado teve contato. Elas não são precisas o suficiente, pois o contágio pressupõe uma proximidade de 2m. É possível articulá-la com outros dados (como compras em cartão de crédito) para aprimorar a precisão, como fez a Coreia do Sul, mas isso envolve uma coleta muito maior de dados – o que pode resultar em mais violações de privacidade.

O segundo sistema, que funciona para o contact tracing, se baseia no sinal de bluetooth de cada celular. Nesse caso, não é necessário saber a localização de cada pessoa – o que importa é a proximidade. O aplicativo, usando essa tecnologia, saberá quais dispositivos estiveram próximos. Aqui, a tecnologia ajuda pessoas contaminadas a notificar outras pessoas, com quem tiveram proximidade física, de seu exame positivo. Tal informação também pode ser útil para o desenvolvimento de políticas públicas.

AS HIPÓTESES DE VIOLAÇÃO DE PRIVACIDADE

A possível violação de privacidade vem justamente na forma como se lida com esses dados. Existem duas maneiras: a primeira é o modelo centralizado, pelo qual uma autoridade tem acesso a essas informações e aos identificadores dos usuários individuais. Essa informação pode gerar, em um bom cenário, um aviso da autoridade responsável de que a pessoa está infectada para as pessoas com quem ela entrou em contato.

No entanto, em países com tendências autoritárias, isso pode significar o envio de forças policiais para a casa de todos esses indivíduos, com objetivo de removê-los a força ou algo pior. Além do mais, isso daria à autoridade responsável pelo banco de dados a informação de que certas pessoas estiveram em contato em dado momento – algo aparentemente simples, mas que pode fornecer dados sensíveis, como o pertencimento a determinado grupo político ou religioso, ou mesmo casos extraconjugais.

O segundo modelo, descentralizado, depende de informações que ficam armazenadas no celular de cada pessoa, com um banco de dados menos robusto. Aqui, os identificadores de cada pessoa encontrada são anônimos, e a autoridade responsável não tem acesso à informação particular de cada indivíduo. Frise-se: a autoridade responsável pelo banco de dados não conta com dados de contato de cada usuário, que permitiriam sua identificação imediata.

A QUESTÃO DA PRIVACIDADE NA TECNOLOGIA UTILIZADA NO BRASIL PARA CONTROLE DA PANDEMIA

A temática é controversa. As medidas emergenciais de vigilância adotadas por alguns países demonstram o quão frágil é o direito à liberdade e privacidade. Em Israel, o governo autorizou – sem supervisão judicial e aprovação parlamentar – a Agência de Segurança a coletar os dados de celulares dos cidadãos e repassar ao Ministério da Saúde, de maneira que será possível alertar àqueles que possivelmente foram expostos ao vírus e monitorar os infectados. Porém, a Associação dos Direitos Civis já se manifestou, alegando ser uma medida inadequada, já que a tecnologia utilizada no processo de coleta é a mesma usada no rastreamento de combate ao terrorismo.[3]

Em sentido semelhante, utilizando recursos dispostos na Big Data, o Brasil também adotou ações para controlar a disseminação do Sars-Cov-2. Em São Paulo e Rio de Janeiro, os governos estaduais firmaram parcerias com as operadoras de telefonia, objetivando o acesso de dados de geolocalização para auxiliar no enfrentamento da doença.

O rastreamento, neste caso, é feito pelo sinal emitido pelas antenas do aparelho celular. Em seguida, são representados em “mapas de calor”, que indicarão maior ou menor concentração de pessoas em determinados locais e períodos.

Assim, seria possível identificar pontos de aglomerações, mapear o fluxo de pessoas nas principais vias da cidade e comprovar a eficácia das medidas de distanciamento social, a fim de evitar o crescimento acelerado da doença, como aconteceu em outros países.

De acordo com as operadoras de telefonia brasileiras, peças centrais deste modelo, os dados repassados são anonimizados e cumprem com a tutela de privacidade dos usuários.

No entanto, é certo que, além de não haver consentimento do titular dos dados para as finalidades pretendidas, há, também, deficiência na fundamentação que pavimentaria o reconhecimento da necessidade de implantação do monitoramento. Quais são os projetos estatais vinculados a este monitoramento? Qual a efetividade do rastreamento para o controle e dispersão das aglomerações? Qual a linha de tempo (nascimento e morte) dos dados pessoais coletados?

A ausência de um planejamento robusto que denote, em minúcias, os trajetos e pretensões repousadas sobre estes sistemas de monitoramento de geolocalização invalidam toda a pretensa boa intenção do administrador público de utilizar a tecnologia para fins de proteção à saúde e incolumidade pública.

Paralelamente, a prefeitura de Recife implementou um aplicativo próprio para monitorar a localização dos celulares, obter dados de deslocamento e acompanhar em quais locais as medidas de restrições estão sendo cumpridas.

Diferente de São Paulo e Rio de Janeiro, o município utilizará a tecnologia desenvolvida por uma startup que faz uso de triangulação de redes wi-fi e sensores de bússola dos smartphones – exatamente como dispõe o primeiro sistema anteriormente apresentado.

Além disso, a empresa coleta dados a partir de aplicativos de terceiros, que possuem, em suas políticas de privacidade, a autorização de transmissão de dados a parceiros comerciais, sobretudo para fins de marketing direcionado[4].

Neste modelo, o fundamento não se socorre na anonimização supostamente empreendida pelas empresas de telefonia, mas, sim, do pretenso consentimento do usuário a partir da (suposta) ciência das políticas de privacidade de determinados aplicativos de telefone.

Em ambos os modelos, no entanto, aproveita-se de uma lacuna deixada pela postergação de vigência da Lei Geral de Proteção de Dados, ignorando-se que a própria dinamização do direito à privacidade agasalha a necessidade de respeito à autodeterminação informativa. Corrobora, neste sentido, interessante acórdão proferido pelo STJ, já nos idos de 2010, debruçado sobre a veiculação indevida da imagem de um sujeito na internet, que concluiu: “com o desenvolvimento da tecnologia passando a ter um novo conceito de privacidade que corresponde ao direito que toda pessoa tem de dispor com exclusividade sobre as próprias informações, ou seja, o consentimento do interessado é o ponto de referência de todo o sistema de tutela da privacidade”[5].

Em verdade, o deslocamento do debate para a dualidade “proteção de dados versus saúde”, nuclear para a aceitação da implementação dos mecanismos de monitoramento de geolocalização no contexto de Sars-Cov-2, denota um certo desprestígio que a privacidade detém em contextos de massificação do cyberspace[6].

O discurso de proteção à vida, em um cenário de crise epidemiológica, é cômodo e superficial, mas desconsidera a existência de mecanismos tecnológicos aptos a resguardar, também, o direito à privacidade – ou, ao menos, reduzir os riscos de perfilização[7] indevida, monitoramento estatal excessivo e manipulação de massas.

O segundo sistema aqui apresentado, baseado nos sinais de bluetooth dos aparelhos celulares, quando formatado pelo modelo descentralizado, se alimenta de bancos de dados menos robustos e anonimizados (pelo menos de forma imediata).

A alocação de recursos e esforços governamentais para o monitoramento dos cidadãos, com fundamento na necessidade de dispersão das aglomerações, pode parecer louvável, mas exige um debate qualificado e que contemple, em igual medida, todos os direitos fundamentais envolvidos.

A coleta desmedida de dados pessoais, principalmente em ano eleitoral, acende o alerta acerca da desvirtuação das ferramentas tecnológicas para finalidades pouco republicanas e menos honrosas que a defesa da “saúde pública”.

REFERÊNCIAS:

[1] A Estratégia da Coreia do Sul de contenção da COVID-19. In: Boletim GEDAI abril de 2020 – Especial Coronavírus. Disponível em: https://www.gedai.com.br/a-estrategia-da-coreia-do-sul-de-contencao-da-covid-19/. Acesso em: 11 maio 2020.

[2] Podcast “Antivírus”. Ep. 04: “Geolocalização é vigilância?”. Disponível em: https://www.youtube.com/watch?v=KkBfpTTKU7c&feature=youtu.be. Acesso em: 16 abr. 2020.

[3] Israel começa a monitorar celular de contaminados com coronavírus. Disponível em: https://noticias.r7.com/internacional/israel-comeca-a-monitorar-celular-de-contaminados-com-coronavirus-17032020. Acesso em: 14 maio 2020.

[4] Prefeitura do Recife coleta localização dos celulares para mapear isolamento social. Disponível em: https://teletime.com.br/25/03/2020/prefeitura-do-recife-coleta-localizacao-dos-celulares-para-mapear-isolamento-social/. Acesso em: 14 maio 2020.

[5] STJ. REsp 1.168.547/RJ. Rel. Min. Luis Felipe Salomão. J. 11.05.2010.

[6]“O cyberspace é um conceito transcendente às experiências da Internet, tendo não somente como panorama um meio de comunicação digital, mas um espaço que abrange uma nova forma de vida social e de cultura: a cybersociety”. (LIMA, Cíntia Rosa Pereira de; PEROLI, Kevin. Direito Digital: Compliance, Regulação e Governança. São Paulo: Quartier Latin, 2019. p. 23)

[7] “Esta técnica, conhecida como profiling, pode ser aplicada a indivíduos bem como estendida a grupos. Nela, os dados pessoais são tratados, com o auxílio de métodos estatísticos, inteligência artificial e outras mais, com o fim de obter uma metainformação, que consistiria numa síntese dos hábitos, preferências pessoais e outros registros da vida desta pessoa. O resultado pode ser utilizado para traçar um quadro de tendências das futuras decisões, comportamentos e destinos de uma pessoa ou grupo. A técnica pode ter várias aplicações desde, por exemplo, o controle de entrada em um determinado país pela alfândega […]bem como uma finalidade privada, como o envio seletivo de mensagens publicitárias de um produto apenas para seus potenciais compradores, dentre inumeráveis outras”. (DONEDA, Danilo. Da privacidade à proteção de dados pessoais. São Paulo: Renovar, 2006. p. 175)

Fonte: GEDAI

Os princípios no tratamento de dados na Lei Geral da Proteção de Dados Pessoais

Texto por Marcio Pestana

Proximamente, ganhará eficácia a Lei 13.709/2018, autointitulada Lei Geral de Proteção de Dados Pessoais. Entre diversas disposições, merecem nossas considerações os preceptivos que se referem aos princípios que deverão ser respeitados por ocasião do tratamento de dados das pessoas naturais.

A LGPD, nesse sentido, confessadamente voltou-se, cuidadosa e esmeradamente, para disciplinar o tratamento de dados das pessoas naturais, ou seja, aqueles envolvendo coleta, produção, recepção, classificação, utilização, acesso, reprodução, transmissão, distribuição, processamento, arquivamento, armazenamento, eliminação, avaliação ou controle da informação, modificação, comunicação, transferência, difusão ou extração.

Iniciando sua jornada normativa a respeito, cravou, em caráter introdutório, a recomendação de que o tratamento seja presidido pela boa-fé, para logo, ao depois, relacionar os princípios jurídicos que, em seu entender, considera relevantes para o objeto disciplinado.

Certamente assim o fez por desde logo vislumbrar que o amplo cenário atingido pela LGPD, no tocante ao tratamento, não poderia ser contemplado pelo normativo em sua totalidade, de maneira taxativa, muita das vezes sendo necessário, sobretudo ao interprete e aplicador do direito, recorrer-se dos  princípios jurídicos especificados, para adotá-los, em conjunto com outros consagrados princípios hospedes da ordem jurídica, na dirimência de dúvidas e, mesmo, conflitos que as pessoas naturais, jurídicas, órgãos e entidades poderão travar ao aplicar, em concreto, a LGPD em situações envolvendo o tratamento de dados.

Princípios jurídicos, conforme já pudemos dantes ressaltar, representam uma categoria expressional, construída pelo homem, segundo os valores considerados importantes e relevantes em uma sociedade acerca de determinados sujeitos, objetos e das relações que estabelecem entre si, assim reconhecidos pela ordem jurídica, os quais reúnem, em seu entorno, os enunciados e normas jurídicas voltadas para prescrever condutas e disciplinar as relações intersubjetivas [1].

E prosseguimos: conhecer princípios equivale a conhecer a essência da matéria sob atenção, facilitando, sobremaneira, a dissecação do objeto sob estudo. Desconhecer os princípios, ao reverso, é caminhar tateantemente por entre disposições e preceptivos, sem visão de largueza e amplitude, prejudicando, com tons de definitividade, a possibilidade que se encerra de investigar-se e aprofundadamente conhecer-se o objeto [2].

Pois bem, a partir de tais considerações introdutórias, passemos a examinar os princípios jurídicos assim considerados pela LGPD em relação ao tratamento:  i) finalidade; ii) adequação; iii) necessidade; iv) livre acesso; v) qualidade dos dados; vi) transparência; vii) segurança; viii) prevenção; ix) não discriminação; e, x) responsabilização e prestação de contas.

Leia aqui o texto do artigo na íntegra.

[1] Marcio Pestana. Direito Administrativo Brasileiro, São Paulo : Ed. Atlas, 4ª ed., 2014.

[2] Marcio Pestana. Direito Administrativo Brasileiro, São Paulo : Ed. Atlas, 4ª ed., 2014.

Fonte: Consultor Jurídico

Seminário Internacional debateu ética em informação em tempos de pandemia.

Texto por Carolina Cunha

No dia 14 de maio, o grupo de pesquisa Estudos Críticos em Informação, Tecnologia e Organização Social (Escritos/Ibict) realizou seu terceiro seminário. O evento, que pela primeira vez aconteceu de forma remota, foi realizado em comemoração aos 50 anos do Programa de Pós-graduação em Ciência da Informação (PPGCI/IBICT-UFRJ).

O seminário contou com a participação dos palestrantes Rafael Capurro (Universidade de Mídia de Stuttgart, Alemanha), Miguel Ángel Pérez Álvarez (Universidade Nacional Autônoma do México) Sarita Albagli e Arthur Coelho Bezerra, ambos do Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict).

Os palestrantes discutiram os diferentes aspectos da ética em informação no cenário da pandemia de Covid-19. “Com a pandemia, surgem novas formas de monitoramento social e de controle. A circulação e compartilhamento desses dados enfrenta uma série de dimensões éticas”, explica Arthur Coelho Bezerra, pesquisador titular da Coordenação de Ensino e Pesquisa, Ciência e Tecnologia da Informação do Ibict (COEPE/Ibict) e líder do grupo de pesquisa Escritos.

Segundo Bezerra, a pandemia trouxe mudanças e levou ao uso de instrumentos de vigilância de dados pessoais para monitorar o comportamento da população, na tentativa de mitigar o contágio do vírus. Como exemplo, o pesquisador citou mecanismos de vigilância digital em massa que foram usados em diferentes países como o uso da biometria, dados georreferenciados e o controle da temperatura corporal.

Para o pesquisador, o controle de dados pessoais pode ser positivo ou negativo. “A vigilância pode ser usada para o controle epidêmico e evitar que a doença se espalhe. Mas ao mesmo tempo, também pode ser usada para um controle ruim: que pode ser feito por terceiros, como empresas e o Estado”, diz Bezerra.

A pesquisadora Sarita Albagli abordou a importância da ciência aberta para que a comunidade cientifica tenha acesso a dados e chegue mais rápido no desenvolvimento de soluções científicas. “A gente prefere entender a pandemia como um acontecimento. Que possivelmente vai acentuar elementos e forças que estão presentes e ao mesmo tempo abrir novas e não previsíveis forças para a construção desse futuro”, avalia.

Albagli abordou a ciência aberta como um ecossistema híbrido que poderia ampliar a quantidade e a qualidade na produção de conhecimento científico. Como exemplos de iniciativas, ela citou o aumento da publicação de artigos pré-print, a aberturas de dados de pesquisa e iniciativas de ciência cidadã que podem contribuir para encontrar vacinas, medicamentos e tecnologias que possam combater essa epidemia.

O filósofo Miguel Ángel Pérez Álvarez falou sobre as implicações éticas do monitoramento de dados e da inteligência artificial no cotidiano. Álvarez citou o exemplo do México, que implementou sistemas de identificação por câmeras para mapear aspectos da mobilidade da população. “Estamos dispostos a renunciar nossa privacidade para não passarmos uma situação de risco? ”, pergunta o professor.  Para ele, essa situação inédita da pandemia nos leva a repensar a nossa existência e a nossa relação de uns com os outros e com a informação.

Capurro, filósofo uruguaio, fez uma reflexão crítica sobre a existência do vírus e os atuais desafios informacionais, como as fake news em um mundo globalizado. “A forma de ser dos vírus muda em um mundo digitalmente globalizado. Existe uma correlação entre os danos que um vírus pode causar local e globalmente e os causados pelas fake news digitais”, diz o pensador. Ele defende a educação como algo necessário para combater a desinformação e o fenômeno da infodemia. Capurro também sugere mudanças na relação dos seres humanos com a natureza como uma das reflexões possíveis sobre esses tempos.

O seminário pode ser assistido na íntegra no Youtube: https://www.youtube.com/watch?v=fJNLf5VBov4

Fonte: Ibcit

Big data: armazenamento de dados inúteis tem custo e afeta o meio ambiente

Texto por Rodrigo Caetano

Big data, computação em nuvem e home office criam cenário em que as informações nunca são apagadas, gerando prejuízo às empresas, diz pesquisa da Veritas

Segundo pesquisa da Veritas, 52% dos dados armazenados pelas companhias não têm valor definido (Getty Images/Reprodução)

E-mails antigos, arquivos de Word e Excel com projetos de cinco anos atrás, listas de contatos obsoletas, fotos, vídeos e áudios de WhatsApp. A facilidade de se armazenar dados faz com que pessoas e empresas guardem informações inúteis por muito tempo. A prática pode parecer inofensiva. Mas tem um custo alto, em termos financeiros ambientais.

Segundo uma pesquisa realizada pela empresa de tecnologia Veritas, em média, 52% dos dados armazenados pelas companhias não têm valor definido ou são, simplesmente, inúteis. Estima-se que, em 2018, as informações armazenadas digitalmente, no mundo, totalizavam 33 zetabytes, o equivalente a mais de 35 bilhões de terabytes. Até 2025, esse volume deverá subir para 175 zetabytes, impulsionado, principalmente, por dados sem utilização.

“As pessoas têm medo de apagar as informações, pensando que, um dia, talvez possam utilizá-las”, afirma Pedro Saenger, vice-presidente da Veritas na América Latina. “Mas isso tem um custo para as empresas e para o planeta”. Somente neste ano, a energia utilizada para armazenar dados inúteis em data centers lançará na atmosfera, desnecessariamente, 6,4 milhões de toneladas de carbono.

Para absorver esse volume de emissões, é preciso contar com uma área florestal superior a 3 milhões de hectares, o equivalente a 500 vezes o tamanho da Ilha de Manhattan, onde está localizado o centro financeiro de Nova York. Segundo a Veritas, a chamada “dark data” produz mais dióxido de carbono do que 80 países individualmente.

Mudar esse cenário depende de uma nova mentalidade. “Os dados não têm valor a menos que estejam identificados e classificados”, afirma Saenger. Antes de armazená-los, as empresas devem estabelecer critérios de utilidade e métodos para indexar as informações. “Hoje, é muito fácil comprar mais armazenamento. No entanto, essa é uma política equivocada, pois cria essa cultura de não deletar nada”, afirma.

Segundo Hernan Roth, diretor de engenharia da Veritas, a crise do coronavírus deve piorar a situação em razão da adoção da prática de home office. “A utilização de diversas plataformas de comunicação acaba fragmentando os dados, o que dificulta ainda mais o controle”, afirma. “É muito comum encontrar arquivos duplicados nas empresas, compartilhados em diferentes sistemas.”

Fonte: Exame

Prorrogação da vigência da LGPD coloca em risco a sociedade brasileira

Texto por Demócrito Reinaldo Filho

Edição extra do Diário Oficial da União foi publicada na noite do dia 29 de abril contendo o texto da Medida Provisória 959/2020, que prorroga a entrada em vigor da Lei Geral de Proteção de Dados (LGPD) para o dia 3 de maio de 2021. A MP foi editada para facilitar o pagamento de benefícios instituídos como ajuda financeira para os brasileiros durante o período da pandemia do coronavírus — a Caixa Econômica Federal perde a exclusividade no pagamento dos benefícios, que agora podem ser recebidos também nas agências do Banco do Brasil —, mas destinou um único artigo para ampliar a vacatio legis da Lei nº 13.709/2018 (LGPD)[1], que entraria em vigor em 16 de agosto deste ano.

A medida pegou a todos de surpresa, pois atropelou o Congresso, onde tramita projeto de lei (PL 1179/2020), já aprovado pelo Senado e em análise na Câmara Federal, que prorroga a vigência da LGPD para janeiro de 2021 [2]. No dia 29, mesmo dia da publicação da MP, havia inclusive sido aprovado regime de urgência para tramitação do PL [3].

O adiamento da vigência da LGPD constitui grave erro e acentuado risco para a sociedade brasileira, no atual momento.

É bastante frágil o argumento de natureza econômica, utilizado pelos defensores da prorrogação da vigência da LGPD. Alega-se que as empresas brasileiras não tiveram tempo de se adaptar à lei e ainda serão obrigadas a realizar despesas para se adequar às suas exigências. Sobrecarregá-las num momento desses, em que se inicia uma recessão econômica profunda, como decorrência da crise de saúde, vai dificultar a recuperação da economia brasileira. As empresas terminarão sofrendo com as pesadas multas previstas na nova LGPD, inviabilizando a recuperação em tempos extremamente difíceis, concluem.

Essa visão não espelha a realidade, do ponto de vista jurídico. As empresas não deixarão de ser responsabilizadas pelos danos que causarem por manipulação ou uso indevido de dados pessoais durante o período da pandemia. O nosso ordenamento jurídico já dispõe de diversos instrumentos normativos que atribuem responsabilização por danos causados a consumidores de produtos e serviços. A Constituição, o Código Civil (Lei nº 10.406/2002), o CDC (Lei 8.078/90), o Marco Civil da Internet (Lei nº 12.965/2014) e a Lei 12.414/2011 (que disciplina bancos de dados com informações de crédito) são suficientes para atribuir dever de reparação por danos causados por qualquer empresa que, no desenvolvimento de atividade de tratamento de dados, cause danos a consumidores ou terceiros. Em caso de vazamento de informações, manipulação indevida de dados de saúde, compartilhamento não autorizado de dados ou qualquer acidente informacional, que ocorra durante o período ou logo após a pandemia, o controlador não conseguirá fugir à responsabilização pelos danos causados (quer sejam de ordem material ou moral). Poderá ser responsabilizado na esfera judicial e também sofrer a imposição de multas. É bom não esquecer que o artigo 12, II (c/c artigo 11), do Marco Civil (Lei nº 12.965/2014) prevê “multa de até 10% (dez por cento) do faturamento do grupo econômico no Brasil no seu último exercício”, por acidente que ocorra “em qualquer operação de coleta, armazenamento, guarda e tratamento de registros, de dados pessoais ou de comunicações por provedores de conexão e de aplicações de internet”. Com base no Marco Civil e no CDC, o Procon-SP multou ano passado a Google e a Apple em R$ 10 milhões e R$ 7,7 milhões, respectivamente, pela distribuição de um aplicativo que compartilhava os dados dos usuários com terceiros [4].

As empresas tiveram, sim, tempo para se adaptar e conhecer o conteúdo da LGPD. O projeto de lei tramitou durante anos no congresso nacional até se transformar na Lei nº 13.709/2018 e, antes mesmo da iniciativa legislativa, o debate sobre a proteção de dados pessoais no Brasil já se tinha iniciado sob a coordenação do Ministério da Justiça. O prazo de vacatio legis estipulado inicialmente já foi bastante extenso –— de 18 meses a partir da publicação da lei [5]. Depois, foi estendido para 24 meses [6] e agora a MP o alongou para 32 meses e 18 dias. Nem códigos inteiros tiveram prazo de vacatio tão amplo. Se a prorrogação estipulada na MP 959/2020 for mantida, a LGPD se tornará a lei de maior vacatio legis na história do país, desde a instituição da República.

Com a prorrogação da vigência da LGPD, as empresas continuarão a ser responsabilizadas, mas com base em legislação não especializada (em proteção de dados pessoais). Os intérpretes e julgadores trabalharão com princípios e normas mais abstratas, gerando mais insegurança jurídica. Por isso é muito importante para as próprias empresas, que desenvolvem atividades de tratamento de dados, que a LGPD entre em vigor. A nova LGPD traz diversos conceitos e estabelece os limites para uso dos dados pessoais. Assegura mais transparência e dá mais segurança para os controladores de sistemas informatizados, ao indicar as situações em que dados sensíveis podem ser tratados e para quais finalidades. No período da pandemia, é fundamental para o setor público e o setor privado poder contar com texto legal que esclareça o que pode e o que não pode ser feito em termos de coleta e processamento de dados de saúde. Postergar a entrada em vigor da LGPD nos deixará em um ambiente de insegurança jurídica, o que é pior para os negócios do que a própria pandemia.

No período da pandemia os mecanismos e ferramentas de vigilância disseminam-se numa velocidade nunca antes experimentada [7]. Para combater a expansão do coronavírus, empresas privadas estão desenvolvendo sistemas de monitoramento e realizando vasta coleta de informações pessoais. Assistimos a uma proliferação de aplicativos [8] e plataformas de coleta de dados de saúde, sem prévia autorização de órgãos sanitários ou teste de condições de segurança, proteção de dados e eficácia [9]. Dados de geolocalização estão sendo utilizados para mapeamento da concentração de pessoas e controle dos movimentos [10]. A privacidade das pessoas está em risco como nunca esteve antes, pois empresas privadas adquiriram o discurso que lhes faltava para se apropriar dos dados de saúde: o combate à pandemia.

Uma legislação para a proteção de dados é necessária para estabelecer as bases e limites do tratamento de dados, como atividade necessária para uma adequada biopolítica de combate à pandemia. Sem ela, as consequências nefastas da biovigilância serão sentidas no futuro, quando talvez não se tenha como revertê-las. Se as ferramentas de vigilância em massa (mass surveillance) proliferarem sem limites ou supervisão regulatória adequada, estaremos criando uma doença social muito maior e com efeitos inimagináveis para a sociedade futura.

A emergência da situação atual não significa que devamos sacrificar a privacidade. Proteção de dados e garantia da privacidade individual não são medidas incompatíveis com o combate à pandemia. Muito pelo contrário. As leis de proteção de dados que seguem o modelo europeu — como a nossa LGPD — são talhadas para lidar com situações como uma pandemia, inclusive dispensando o consentimento do titular dos dados quando for necessário à tutela da saúde [11]. Uma coisa não é excludente da outra. Pode-se combater a expansão da doença sem causar efeitos colaterais mais perversos, respeitando-se as normas de proteção de dados pessoais. Não é correto expandir os tentáculos da vigilância em nome da “saúde pública”, com atividades de coleta e processamento de dados de forma massiva, sacrificando valores sociais e liberdades fundamentais. A tecnologia pode ser utilizada para a execução de políticas públicas, mas de maneira proporcional   e suficiente para controlar a expansão do vírus, sem imolar a privacidade das pessoas.

Durante o período da pandemia, temos que ter equilíbrio suficiente para não descuidar do nosso futuro, da sociedade que vai emergir em seguida. Se não quisermos a construção das bases de uma sociedade de controle, em que cada pessoa é vigiada constantemente e seus dados são utilizados para fins comerciais e de controle comportamental, é preciso não ceder ao ímpeto de vulgarizar a proteção da privacidade. A humanidade experimenta um período sofrido e angustiante, mas a pandemia vai passar, ainda que deixe um rastro de dor e empobrecimento geral de parte da população. Outros países já controlaram a expansão do vírus e retomam as atividades sociais regulares. Não há dúvida de que o Brasil também passará a essa nova fase, ainda que com mais dificuldades por conta dos desníveis sociais que caracterizam nosso país. As políticas de combate ao vírus são conhecidas e irão fazer efeito, num prazo mais ou menos curto (dependendo do grau de acerto dos nossos governantes). Portanto, no momento nossos olhos devem estar voltados para o day after, o estilo de vida e as liberdades que queremos usufruir no amanhã.

A maior resistência às leis de proteção de dados provém das gigantes empresas de tecnologia, que consolidaram o que se convencionou chamar de “capitalismo de vigilância” — a nova forma de capitalismo que monetiza dados adquiridos por vigilância [12]. O mundo online é agora onde o capitalismo desenvolve novos mercados e obtém os meios para produzir novos serviços e produtos, através da extração de dados. Os dados são a nova forma de capital, no mesmo nível do capital financeiro, em termos de geração de novos produtos e serviços digitais. O capitalismo ficou focado na coleta e processamento de dados, usando mecanismos ilegítimos de mercantilização e controle de comportamento, com implicações significativas para a liberdade das pessoas e vulnerabilidade da privacidade individual. Somente as grandes corporações do setor tecnológico têm estrutura para monopolizar as atividades de coleta, processamento e armazenamento de dados em larga escala, gerando intensas concentrações de poder que ameaçam núcleos de valores como a liberdade e privacidade. Como protagonistas dessa nova espécie de capitalismo, as Big Techs reagem a qualquer iniciativa regulatória que considerem ameaça ao núcleo de suas atividades e, portanto, ao seu modelo lucrativo de negócios.

As poderosas empresas de tecnologia já controlam dados sobre nossos hábitos de consumo, nossos movimentos, nossas interações sociais, nossas preferências políticas e ideológicas, nossas finanças e histórico de crédito, e agora querem nossos dados de saúde. Como se disse, os dados são hoje o mais valioso recurso para a economia capitalista, a mais importante fonte de riqueza para as organizações. Mas não se pode permitir que dados sensíveis (dados de saúde) de milhões de brasileiros sejam apoderados por empresas privadas, sem qualquer supervisão ou limitação.

O atual momento justifica inclusive um aperfeiçoamento e reforço da legislação de proteção de dados, nunca um esvaziamento regulatório. As garantias de proteção à privacidade precisam ser constantemente atualizadas e reforçadas numa sociedade completamente dependente dos dados (data-driven society). No meio de uma crise de saúde pública que traz junto uma situação de ameaça à privacidade individual — em razão da coleta e uso indiscriminado de dados pessoais por ferramentas tecnológicas —, os governos devem adotar medidas para reforçar suas legislações, estabelecendo novas limitações e obrigações para os controladores de sistemas informatizados.

O Brasil caminha no sentido oposto ao de outros países, que estão reforçando ou atualizando suas legislações de proteção de dados. A pandemia do coronavírus tem servido como fator catalisador de esforços legislativos para elaboração e aperfeiçoamento de legislação de proteção à privacidade, e não o contrário. No último dia de abril, quatro senadores republicanos apresentaram no Senado dos Estados Unidos um projeto de lei para responsabilizar empresas pelo uso inadequado de dados de saúde, de geolocalização e outras informações utilizadas para combater a pandemia do coronavírus. O senador Roger Wicker, um republicano que representa o Estado do Mississippi e preside o Comitê do Comércio, juntamente com mais três senadores, patrocina o Covid-19 Consumer Data Protection Act, legislação que pretende atribuir aos cidadãos norte-americanos mais controle sobre seus dados de saúde e dados de geolocalização e de proximidade, que hoje estão sendo coletados e usados por ferramentas tecnológicas para conter o vírus [13]. Até autoridades da China, considerado um regime fechado e que desenvolveu um aparato de vigilância estatal, adotaram medidas de proteção de dados durante a pandemia. No início de fevereiro (dia 3), a Comissão Nacional de Saúde da China publicou documento indicando requisitos para a proteção de dados no contexto da Covid-19. O órgão responsável pela política de cibersegurança publicou, no dia seguinte, uma circular contendo diretrizes para assegurar proteção das informações pessoais durante o período da pandemia [14].

Como observa, a pandemia do coronavírus serviu como gatilho, em diversas localidades do globo, para que os legisladores tomassem consciência da importância de se preservar a privacidade no momento da crise de saúde e galvanizou esforços para iniciativas legislativas de adaptação e reforço das leis de proteção de dados. Aqui no Brasil, com a edição da MP 959/2020, andamos em sentido oposto, relegando a proteção dos dados de saúde dos brasileiros, em momento em que a privacidade está sob risco acentuado.

As empresas de tecnologia sempre tentaram avançar no setor de saúde pública, por meio de parcerias com hospitais e universidades, mas sofriam grande resistência por conta da natureza dos dados que poderiam recolher com iniciativas nessa área. Agora conseguiram na pandemia da Covid-19 o discurso que lhes faltava. No Brasil, sem a LGPD e sem a instalação da Agência Nacional de Proteção de dados (ANPD), será fácil abocanharem o último nicho que lhes era negado. O “capitalismo de vigilância” finalmente se apodera dos dados de saúde!

[1] Artigo 4º A Lei nº 13.709, de 14 de agosto de 2018 passa a vigorar com as seguintes alterações:

“Artigo 65…………………………………………….

……………………………………………………

II – em 3 de maio de 2021, quanto aos demais artigos.” (NR)

[2] O PL 1179/2020 cria o Regime Jurídico Emergencial e Transitório das relações jurídicas de Direito Privado (RJET) no período da pandemia do coronavírus (Covid-19), e, entre outras medidas, adia a vigência da LGPD para janeiro de 2021 e a aplicação de multas e sanções para agosto de 2021.

[3] Cf. notícia publicada no site Convergência Digital, em 30/4/20, acessível em: https://www.convergenciadigital.com.br/cgi/cgilua.exe/sys/startigohtm?UserActiveTemplate=site&infoid=53529&sid=4

[4] Ver notícia no G1, publicada em 30/8/19, acessível em: https://g1.globo.com/sp/sao-paulo/noticia/2019/08/30/procon-sp-aplica-multas-milionarias-em-google-a-apple-por-aplicativo-que-envelhece-rostos.ghtml

[5] A Lei Geral de Proteção de Dados foi sancionada em 14 de agosto de 2018, publicada no Diário Oficial da União em 15 de agosto de 2018, e republicada parcialmente no mesmo dia, em edição extra. O início da vigência seria em 18 meses desde a publicação.

[6] A Lei 13.853/19 modificou o inc. II do artigo 65 da Lei 13.709/18, prevendo a entrada em vigor desta última em 24 meses após a data de sua publicação.

[7] A esse respeito, sugerimos a leitura de nosso artigo “COMO OS PAÍSES ASIÁTICOS UTILIZAM A TECNOLOGIA PARA COMBATER A EPIDEMIA DO CORONAVÍRUS – A transição do ‘capitalismo de vigilância’ para a ‘vigilância totalitária'”?, publicado na Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 25, nº 6120, 3 abr. 2020. Disponível em: https://jus.com.br/artigos/80616

[8] Muitos desses aplicativos estão sendo distribuídos nas “lojas” (plataformas de distribuição) das grandes empresas de Internet, como a App Store (da Apple) e a Google Play (da Alphabet).

[9] Sugerimos a leitura de nosso artigo “RASTREAMENTO DE CONTATOS MEDIANTE APLICATIVOS: proposta de um modelo para o Brasil na nova fase de combate ao coronavírus”, artigo publicado no site Juristas, em 24 de abril de 2020, acessível em: https://juristas.com.br/2020/04/24/rastreamento-contatos-auxilio-aplicativos/

[10] Para entender como os dados de geolocalização podem ser utilizados na política de enfrentamento ao coronavírus, sugerimos a leitura de nosso artigo “A UTILIZAÇÃO DE DADOS DE GEOLOCALIZAÇÃO NO COMBATE À PANDEMIA DO CORONAVÍRUS – A necessidade de adoção de salvaguardas regulatórias, publicado na Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 25, nº 6116, 30 mar. 2020. Disponível em: https://jus.com.br/artigos/80679

[11] O artigo 11, II, f, da LGPD (Lei 13.709/2018), admite o tratamento de dados sensíveis mesmo sem o consentimento do titular, quando a atividade for necessária para “tutela da saúde, exclusivamente, em procedimento realizado por profissionais de saúde, serviços de saúde ou autoridade sanitária”.

[12] Capitalismo de vigilância (surveillance capitalism) é um termo usado e popularizado pela acadêmica Shoshana Zuboff, que denota um novo gênero de capitalismo que monetiza dados adquiridos por vigilância. Para quem se interessar mais pelo tema, sugerimos a leitura de seu livro “Big other: surveillance capitalism and the prospects of an information civilization” (Social Science Research Network. Journal of Information Technology. 2015).

[13] Ver notícia publicada no site especializado em assuntos legais Law360, sob o título “Sens. float Privacy Bill to protect data in COVID-19 era”, em 30.04.20, acessível em: https://www.law360.com/technology/articles/1269228/sens-float-privacy-bill-to-protect-data-in-covid-19-era?nl_pk=df30baa8-1fc8-4548-8460-1e2ae87982e5&utm_source=newsletter&utm_medium=email&utm_campaign=technology

[14] Ver notícia publicada sob o título “Personal data protection in the time of coronavirus (Covid-19)”, em 25/2/ 20, acessível em: https://www.dataprotectionreport.com/2020/02/personal-data-protection-in-the-time-of-coronavirus-covid-19/

Fonte: Conjur

FGV EESP realiza webinar sobre os desafios da ciência de dados e inteligência artificial na medicina

Evento será dia 14 de maio, das 19h às 20h30, pelo Youtube

A Escola de Economia de São Paulo da Fundação Getulio Vargas (FGV EESP) promoverá um webinar sobre os desafios da ciência de dados e inteligência artificial na medicina, no dia 14 de maio, das 19h às 20h30. Os interessados em participar devem fazer a inscrição pelo site da FGV EESP (http://eesp.fgv.br/). Após o cadastro, receberão o endereço da webinar por e-mail.

A ideia do debate é abordar aplicações de ciência dos dados e a inteligência artificial em medicina. Além de temas relacionados à dinâmica da atual pandemia, também serão discutidas as aplicações em medicina diagnóstica e as preocupações éticas correspondentes. O evento será moderado por Marcelo Fernandes (professor FGV/EESP), contando com a participação dos pesquisadores Fernando Bozza (Instituto D’Or) e Silvio Hamacher (Departamento de Engenharia Industrial, PUC-Rio).

Fonte: Jeonline

Certificação Digital, Segurança da Informação e as Transformações Impostas pela Pandemia

Texto por Fernanda Sauer 

A certificação digital não é exatamente uma novidade, mas, como tudo ligado à tecnologia, evoluiu, ganhou mais adeptos e visibilidade com a promulgação da Lei 13.709 de 14 de agosto de 2018 – Lei Geral e Proteção de Dados (LGPD)

Fernanda Sauer – Sócia do escritório Villemor Amaral e Presidente da Comissão de Direito Digital do IAB

O certificado digital funciona como uma identidade virtual que permite a identificação segura e inequívoca de uma mensagem ou transação virtual, assinada pela autoridade certificadora que associa o titular da transação a um par de chaves criptográficas.

A assinatura digital identifica o remetente de uma mensagem eletrônica ou documento, possuindo autenticidade, integridade e confiabilidade.

A tecnologia aplicada permite a verificação da autoria do documento e estabelece a intangibilidade de seu conteúdo, na medida em que qualquer mínima alteração compromete a integridade do documento e torna inválida a assinatura.

Dessa forma, a assinatura digital é mais do que uma simples assinatura digitalizada, mas também uma ferramenta que garante a integridade do documento.

O uso de certificado digital permite maior agilidade, segurança e redução de custos nas transações, pois possibilita que processos e negócios que se davam burocrática e presencial e, por vezes, com uma quantidade considerável de papel, possam se dar integralmente pela via eletrônica e a qualquer distância.

A certificação digital, hoje, tem aplicação na assinatura de contratos e documentos digitais; processos judiciais e administrativos por meio eletrônico; assinatura da declaração de renda e serviços prestados pela Secretaria da Receita Federal; obtenção e envio de documentos cartorários; transações com instituições financeiras e até mesmo receitas médicas vêm sendo assinadas digitalmente via certificado (o que será cada vez mais comum após a aprovação do exercício da telemedicina).

Entre os advogados, principalmente aqueles que lidam com processos judiciais e administrativos eletrônicos, o certificado digital passou a ser indispensável, visto que a Lei do Processo Eletrônico – Lei 11.416/2006 – exige o certificado para assinatura de documentos e petições, através de chip criptográfico instalado em uma mídia removível (formatoA3),  que conhecemos como “token”.

Desde abril desse ano, os advogados podem emitir e renovar seus certificados à distância, de acordo com a resolução nº 170 do Comitê Gestor da ICP-Brasil. Não é possível hoje praticar a advocacia contenciosa sem o certificado e a tendência é de que mesmo para atividade de advocacia consultiva e para transmissão segura de documentos o seu uso tenderá a ser amplamente difundido.

Do ponto de vista legal e regulatório, foi a  Medida Provisória nº 2.200-2/2001 responsável pela criação do sistema nacional de certificação digital, conhecido como ICP-Brasil (Infraestrutura de chaves públicas brasileira) para garantir a autenticidade, integridade e validade jurídica de documentos em formato eletrônico, das aplicações de suporte e habilitadas que utilizem certificados digitais, bem como para a realização de transações eletrônicas seguras.

Integram a estrutura hierárquica da ICP-Brasil: Gestora de Políticas, Certificadora Raiz e Certificadoras e de Registro.

Há um Comitê Gestor, ao qual as autoridades são submetidas, vinculado à Casa Civil da Presidência da República e a quem cabe estabelecer a política e normas técnicas para credenciamento das autoridades certificadoras e registradoras em todos os níveis da cadeia de certificação, além de controlar a execução das políticas públicas relacionadas à ICP-Brasil, inclusive nos aspectos de normatização e procedimentos administrativos, técnicos, jurídicos e de segurança.

O Instituto Nacional de Tecnologia da Informação (ITI) exerce a função de Autoridade Certificadora Raiz da ICP-Brasil, sendo responsável pela execução das políticas de certificados e de normas técnicas e operacionais aprovadas pelo Comitê Gestor para o credenciamento das autoridades certificadoras e registradoras. Caberá às certificadoras a emissão, expedição, distribuição e gerenciamento dos certificados digitais, que uma vez emitidos, vinculam pares de chaves criptográficas a um titular (pessoa física ou jurídica).

Ao contexto legal anterior, somou-se, recentemente, a LGPD, promulgada em agosto 2018,que exige daqueles que tratam dados pessoais a implementação das melhores práticas na gestão de informação. A nova lei estabelece uma nova cultura em relação à segurança da informação, transparência, privacidade e proteção de dados pessoais, cujo descumprimento pode levar a multas de até R$ 50 milhões.

No cenário da entrada em vigor da LGPD, o certificado digital será um importante aliado na implementação das boas práticas na gestão e segurança da informação, pois provê garantias e proteção aos envolvidos na transação ou mera comunicação (autenticidade da assinatura do remetente, intangibilidade do conteúdo da informação transmitida etc.)

Por fim é relevante notar que, como consequência da pandemia, empresas dos mais variados ramos de negócios, inclusive escritórios de advocacia, estão revendo suas formas de atuar à distância, utilizando e investindo massivamente em tecnologia, ao mesmo tempo em que organizam a redução de suas estruturas físicas e fechamento de filiais.

Nesse contexto,a utilização da certificação digital é um caminho sem volta, pois cumpre com o fim de dar agilidade às transações à distância garantindo a segurança da informação transmitida e se alinhando não só à legislação interna como internacional.

*O Instituto dos Advogados Brasileiros é a instituição jurídica mais antiga das Américas. https://www.iasp.org.br

Fonte: CRYPTOID

Confira artigo de pesquisadores do Ibict sobre uma interface de análise de dados da Biblioteca Digital Brasileira de Teses e Dissertações

A partir da proposta de um estudo de caso sobre a construção de uma interface de visualização de dados para repositórios de acesso aberto, Washington R. de Carvalho Segundo e Lucca de Farias Ramalho, pesquisadores do Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict), escreveram o artigo “R-Shiny as an Interface for Data Visualization and Data Analysis on the Brazilian Digital Library of Theses and Dissertations (BDTD)” (em português “R-Shiny como Interface para Visualização e Análise de Dados na Biblioteca Digital Brasileira de Teses e Dissertações (BDTD)”.

Os pesquisadores foram convidados a escrever o artigo quando apresentaram os resultados do trabalho durante o evento Open Repositories, realizado em junho de 2019, na Alemanha. O artigo está disponível no volume 8, número 2, da revista Publications, e traz o estudo de caso da Biblioteca Digital Brasileira de Teses e Dissertações (BDTD), desenvolvida e coordenada pelo Ibict. A BDTD é uma rede de repositórios e bibliotecas digitais de teses e dissertações, que agrega registros de mais de 110 instituições brasileiras que contribuem com uma quantidade de quase 670.000 documentos.

O artigo dos pesquisadores do Ibict traz detalhes sobre os métodos estatísticos utilizando a linguagem R e um de seus pacotes de visualização, que é chamado Shiny. Sobre o R, Lucca Ramalho explica que é uma linguagem de programação “que foi desenvolvida com contribuições da comunidade acadêmica, com o benefício de ser um software livre com ampla comunidade de usuários”. Por meio do aplicativo, um usuário pode visualizar dados de uma maneira rápida e personalizável, de modo que seria possível ajudar no acompanhamento de metadados e estatísticas de uso nos repositórios.

Como detalha Washington Segundo, que, além de pesquisador, também é coordenador do Laboratório de Metodologia de Tratamento e Disseminação da Informação do Ibict, a ideia é que, a partir do estudo de caso da BDTD, outras instituições possam criar repositórios abertos e ingressar em redes de repositórios nacionais, regionais ou internacionais. Washington explica que um dos propósitos da BDTD é disseminar a Ciência Aberta e a relevância dos repositórios e das bibliotecas digitais como meio de disseminação da informação científica produzida pelo país.

A BDTD é uma rede de repositórios, os quais nem sempre têm a visibilidade que eles merecem. As instituições mantêm esses repositórios e têm um trabalho grande para atualizar a parte tecnológica e de organização da informação. Assim, a BDTD tem esse papel de congregar a informação em um só local e, ao mesmo tempo, oferecer visibilidade a esses repositórios. Sendo que o acesso ao recurso da tese ou dissertação é feito no repositório da própria instituição”, detalha Washington Segundo. 

Washington Segundo destaca, ainda, que existe um trabalho cotidiano de manutenção e expansão da BDTD, de modo a incentivar a criação de novos repositórios e bibliotecas digitais em outras instituições. “A partir do momento em que é criada uma rede, como a BDTD, os membros participantes podem visualizar quem participa da rede, e as informações disseminadas por cada instituição, o que é um estímulo para outras instituições fazerem parte dessa rede, criando, desta forma, seus respectivos repositórios e bibliotecas digitais”.

Para ler o artigo completo dos pesquisadores acesse (em inglês): https://doi.org/10.3390/publications8020024 (link direto da revista) ou http://ridi.ibict.br/handle/123456789/1073 (Repositório  Institucional do Ibict).

Para conhecer a BDTD, clique aqui

Fonte: Ibict

Webinar gratuito debate proteção de dados em meio a pandemia da Covid-19

Texto por Ray Santos

O escritório Loeser, Blanchet e Hadad Advogados promove, em conjunto com a PwC, na quinta-feira, dia 14, o webinar ‘A jornada da LGPD e a Covid-19: o desafio de seguir em frente’. Voltado para empresas de todos os setores, o evento vai debater sobre cibersegurança em meio a pandemia do novo coronavírus.

O foco do webinar é trazer esclarecimentos em relação aos últimos acontecimentos e notícias, recomendações e diretrizes, bem como tendências do mercado em relação à LGPD para ajudar as empresas em suas decisões nas circunstâncias atuais. A apresentação também vai contar com uma avaliação sobre o trabalho remoto, necessário para a adaptação a esse tempo de crise, mas que requer alinhamento à Lei Geral de Proteção de Dados (LGPD) a fim de evitar incidentes cibernéticos e violações de segurança.

A frente do webinar está um forte e renomado time de palestrantes, líderes em trabalhos de adequação à LGPD em todo o Brasil: os advogados Richard Blanchet, Rachel Rennó, Bibianna Perez  e Raphael Valentim, de Loeser, Blanchet e Hadad Advogados, e Edgar D’Andrea e Maressa Juricic, especialistas em segurança cibernética e privacidade de dados da PwC, os quais compartilharão seus conhecimentos e experiências na seguinte programação:

  • Entenda o prazo de implementação da LGPD;

  • Como a Covid-19 impacta no cumprimento da Lei: casos concretos;

  • Top 5 issues: os principais problemas enfrentados pelas empresas na adequação;

  • A importância da governança na proteção de dados.

O evento é gratuito e será transmitido ao vivo, mas as vagas são limitadas.

Serviço:

Webinar – A jornada da LGPD e a Covid-19: o desafio de seguir em frente

Data: 14 de maio (quinta-feira)
Horário: das 14h00 às 15h00

Mais informações e inscrições: https://bit.ly/3bhk0He

Sobre o Loeser, Blanchet e Hadad Advogados (LBH)

Fundado em 1989, Loeser, Blanchet e Hadad Advogados (LBH) é referência em direito empresarial no Brasil. Seus profissionais estão presentes nos principais centros jurídicos e de negócios do País, além de contar com a colaboração de uma rede internacional de advogados, permitindo a elaboração de soluções alinhadas aos complexos desafios legais de um mundo em constante mudanças. Sua atuação é pautada pelo atendimento personalizado aos seus clientes associado à melhor aplicação do conhecimento jurídico, apresentando soluções ética, inovadoras e sólidas.

Fonte: Jornal Dia a Dia

Privacidade de dados e vigilância (digital) epidemiológica

Texto por Patricia Mariuzzo

Questão pode gerar um conflito de direitos entre proteção de dados pessoais e saúde pública

Vários países do mundo têm adotado tecnologias de rastreamento via telefone celular para monitorar as quarentenas e o número de infectados pelo coronavírus. A partir dessas informações, são desenhadas políticas públicas e ações para conter a disseminação da doença. Porém, atrelada a essas medidas de vigilância, surge outra questão: elas podem significar algum tipo de ameaça à nossa privacidade?

Na China e na Coreia do Sul, o governo utiliza aplicativos que permitem monitorar os cidadãos individualmente. Em Israel e em Taiwan, se uma pessoa deixa o celular desligado, pode receber uma visita da polícia que vai checar se ela está em casa.

Aqui no Brasil, desde o início do mês de abril, as empresas de telefonia (Vivo, Tim, Oi, Claro e Algar) anunciaram que repassariam ao governo federal dados sobre os seus mais de 200 milhões de usuários. O governo do Estado de São Paulo também está utilizando o rastreamento via celular para monitorar o alcance do isolamento social. Os gestores adotaram o modelo do uso de dados de localização agregados (que não incluem identificação pessoal) e anonimizados (desvinculados da pessoa titular). A partir dos dados, são gerados mapas de calor que indicam as áreas com maior ou menor movimentação de pessoas.

No caso do Brasil, a professora do Curso de Direito da PUC-Campinas, especialista em direito digital, Christiany Pegorari Conte, acredita que essa questão pode gerar um conflito de direitos, entre proteção de dados pessoais e saúde pública. “Exatamente por não existir um amparo legal específico, já que a Lei Geral de Proteção de Dados (LGPD) não está vigente, tenho receio das eventuais consequências que as medidas de monitoramento e acesso à informação, justificadas pela situação da pandemia, possam trazer”, afirma.

A LGPD (Lei nº 13.709) foi aprovada, em agosto de 2018, com o objetivo de regulamentar o tratamento de dados pessoais, digitais e não digitais, de modo a garantir o respeito à privacidade do indivíduo e, ao mesmo tempo, oferecer segurança jurídica aos agentes, tanto de empresas quanto do governo, que utilizam esses dados. A previsão inicial era que as penalizações ligadas ao não cumprimento da lei entrassem em vigor em agosto deste ano, mas, em decisão do Senado, no último dia 3 de abril, esse prazo foi adiado para 2021. “Em minha opinião, esse adiamento expressa falta de conhecimento sobre essa legislação, que poderia embasar claramente a situação da pandemia. Há artigos específicos que tratam do uso de dados em situações que envolvam tutela da saúde, incolumidade pública e proteção da vida”, afirma.

Riscos

As discussões sobre privacidade de dados não são novas. Toda a transformação tecnológica e comunicacional que vivenciamos nos últimos anos tem demandado novas interpretações sobre o conceito de privacidade em várias áreas e também no Direito. Ocorre que a pandemia acelerou essas discussões ao colocar em lados, aparentemente, opostos, a saúde pública e o direito à privacidade. Certamente, uma das inúmeras perguntas que ela deixará é como equilibrar o uso de dados pessoais com as medidas para controle de epidemias. E será muito importante acompanhar como e em que grau esse medida referente ao uso de dados será institucionalizada nos próximos anos.

De acordo com a professora, o principal risco é que esses dados possam ser usados para outros fins e não apenas para o combate à pandemia. “Em democracias frágeis como a nossa, o uso inadequado dos dados pessoais pode gerar algum tipo de perseguição política ou de controle de opinião. Além disso, como saber se eles vão continuar a ser usados após a pandemia?”, questiona.

Existem, além da própria Constituição Federal de 1988, legislações que abordam a questão da privacidade e do uso de dados, tais como a Lei de Acesso à Informação e o Marco Civil da Internet. Essas legislações apresentam princípios importantes sobre o tema, tais como finalidade, transparência, necessidade e adequação, que devem ser observados nessa situação de pandemia também. Esses instrumentos deveriam ser fortalecidos pela LGPD.

A nova lei criou a Autoridade Nacional de Proteção de Dados (ANPD), vinculada à Presidência da República, que deveria, entre outras funções, criar normas para a Política Nacional de Proteção de Dados Pessoais e da Privacidade, a fim de implementar e fiscalizar essas normas.

A despeito de a LGPD ter sido aprovada em 2018, o órgão ainda não está operacional, criando um vácuo institucional em um momento tão importante, em que medidas para conter a disseminação do coronavírus envolvem cada vez mais o uso de dados pessoais. “Tudo isso gera extrema insegurança sobre a aplicação prática dessa legislação, tanto para aqueles que lidam com dados de terceiros, quanto para toda a coletividade. Daí a pressão para que a vigência da LGPD seja postergada. Mas esse, definitivamente, não é o caminho adequado e prejudica tanto a proteção dos cidadãos, quanto as relações de mercado, uma vez que o Brasil não é visto como um país seguro para fluxo de dados, especialmente, internacionais”, afirma a professora da PUC-Campinas.

Um novo normal

Em artigo publicado no mês de março no jornal inglês Financial Times, o historiador Yuval Harari, que ficou conhecido como autor do livro Sapiens: uma breve história da humanidade (2011), afirmou que a mobilização mundial contra a pandemia da covid-19 deve provocar mudanças não apenas nos sistemas de saúde e na economia, mas também em nossa cultura. Para ele, as medidas tomadas hoje podem abrir um precedente para que governos monitorem a saúde de cada indivíduo, controlando dados como temperatura, pressão arterial e histórico médico, sob o pretexto de evitar situações semelhantes à atual .

As empresas historicamente rivais Google e Apple anunciaram este mês que estão trabalhando juntas em uma tecnologia que permite saber quando se está perto de um indivíduo contaminado por coronavírus. As empresas estão trabalhando, em conjunto com governos e organizações de saúde pública, com o objetivo de oferecer uma solução para conter a disseminação do vírus. O historiador questiona como garantir que toda essa informação não possa ser manipulada para vender um produto ou para favorecer um político.

Entre tantas perguntas ainda sem respostas, é certo que estamos desenhando uma nova relação com a nossa privacidade. “Ninguém passará ileso à pandemia. De um modo ou de outro, essa situação irá impactar a vida das pessoas, despertando uma maior discussão e preocupação com a vigilância e o monitoramento, a que estão submetidas diariamente, antes mesmo da situação da pandemia, mas que se intensificam neste período e demonstram o poder de controle”, opina a Profa. Christiany Pegorari. “Talvez gere, também, uma maior preocupação com aquilo que aceitam quando clicam, aleatoriamente e sem ler/entender, concordando com os termos de uso e privacidade, que implicam o compartilhamento de dados pessoais. Esperamos que isso aconteça!”, finaliza.

Fonte: Segs

A LGPD e a pandemia

Texto: Nelson Adriano de Freitas

Referida cultura deverá ser de fundamental importância para superação do atual estado de calamidade pública, respaldando a grande preocupação com a privacidade de dados pessoais decorrente da maciça coleta, tratamento e manipulação de dados sensíveis e ligados à saúde

t

A pandemia causada pelo coronavírus alterou substancialmente o modo de vida das pessoas de todas as idades. No Brasil, nas primeiras semanas do isolamento social, podemos constatar um imenso crescimento do uso da tecnologia digital, que parece crescer exponencialmente e tão rápido como a progressão da contaminação do coronavírus.

Essa transformação digital é tão acelerada no Brasil, que o próprio Supremo Tribunal Federal realizou no dia 14 de abril, as primeiras sessões por videoconferência da história da Corte. Da mesma forma, o Congresso Nacional adotou votação virtual. Também os serviços públicos de notas e registros, respaldados no provimento 95 do Conselho Nacional de Justiça que autorizou Cartórios a manterem a continuidade do funcionamento de forma eletrônica, enquanto durar o isolamento social causado pelo covid-19, adotaram o uso da tecnologia digital, tornando possível a outorga de procuração à distância com a mesma validade da procuração presencial.

Nessa mesma linha de transformação, as empresas dos diversos portes e setores promoveram, da noite para o dia, verdadeira mudança de procedimentos com adoção da tecnologia digital, possibilitando que os colaboradores desenvolvessem suas atividades de forma remota e, muitas vezes, sem a correta adequação de processos para garantia da segurança e inviolabilidade de propriedades industriais e segurança da informação.

Por outro lado, a intensificação do uso da internet possibilitou a coleta de dados com intensa facilidade, tornado estas informações em bens imateriais de elevado valor e fundamental importância estratégica para diversos órgãos públicos e empresas das mais variadas modalidades. Considerando isto, as atividades empresariais estão sendo repensadas e reorganizadas para o efetivo desenvolvimento de uma sólida ‘cultura da segurança da informação’.

Isto justifica o fato de que a proteção de dados pessoais no Brasil ter se tornado assunto de grande relevância e interesse da sociedade em geral. Não se pode negar que antes da Lei Geral de Proteção de Dados (LGPD), o nosso ordenamento jurídico já dispunha de diversas leis esparsas, para tratar de diferentes aspectos das relações jurídicas que envolviam proteção de dados. Como exemplos, a própria Constituição Federal de 1988, que garante a inviolabilidade da privacidade e intimidade; o Código de Defesa do Consumidor que disciplina a criação de banco de dados de consumidores; o Código Civil, que regulamenta os direitos inerentes à personalidade; a Lei do Habeas Data, que regulamentou a retificação de dados; a lei complementar 105/01, que trata do sigilo das operações financeiras; a lei 12.527/11, que regulamenta o acesso à informação;  a lei 12.737/12, conhecida como Lei Carolina Dieckmann, que trata do crime de invasão de dispositivos informáticos, entre outras. Não obstante tudo isto, na esteira do modelo europeu de proteção de dados, no Brasil, a LGPD inaugura um novo período no qual a segurança da informação é foco de elevados investimentos e grande relevância.

Para tanto e desde já, independentemente do debate sobre a postergação da entrada em vigor da Lei Geral de Proteção de Dados, imperioso é o desenvolvimento da cultura da privacidade, do incentivo às boas práticas de forma a permitir plena transparência e segurança às relações jurídicas.

Devemos aceitar que a alegação de ausência da criação da Autoridade Nacional de proteção de dados e a impossibilidade de aplicação de penalidades não são fundamentos aceitáveis, para qualquer resistência à mudança de comportamento, assim, diversas atividades de conscientização devem ser imediatamente adotadas e intensificadas, durante esse período de isolamento social e, consequentemente, de trabalho remoto. Essas atividades devem objetivar a formação de verdadeira cultura da proteção de dados independentemente da entrada em vigor da LGPD.

Referida cultura deverá ser de fundamental importância para superação do atual estado de calamidade pública, respaldando a grande preocupação com a privacidade de dados pessoais decorrente da maciça coleta, tratamento e manipulação de dados sensíveis e ligados à saúde. Isso pode gerar um efeito discriminatório intenso aos portadores de vírus, demandando, portanto, critérios efetivos e diferenciados contra incidentes de vazamentos desses dados pessoais.

Fonte: Migalhas

Segurança da informação e proteção de dados na pandemia da Covid-19

Texto por Valéria Reani

Em isolamento social por causa da pandemia do novo coronavírus, o recurso da internet vem crescendo para finalidades como o teletrabalho, a comunicação com parentes, amigos e colegas, a busca por informações e momentos de lazer no consumo de músicas e vídeos. Com isso, é preciso aumentar também os cuidados para evitar acessos indevidos, entrada de vírus ou golpes aplicados pela web, para garantir a segurança das informações.

A grande ferramenta que possibilita uma mobilidade real para transportar o trabalho para qualquer lugar é o laptop, ou notebook. Hoje esses computadores portáteis possuem as mesmas funcionalidades e capacidades dos computadores de mesa, mas com a vantagem da portabilidade, acesso à internet sem fio (wi-fi) e baterias com capacidade para horas de funcionamento contínuo (LOPES, 2008).

A banda larga proporciona a mobilidade e a comunicação via Skype ou outras plataformas. Além da possibilidade de tornar a conversa à distância mais realista, como as por videoconferência, que também podem ser de alta resolução.

Nesse contexto, a pergunta é: como o colaborador pode garantir a segurança da informação em teletrabalho? (1)

 Verifique seu firewall

Em informática, um firewall (em português: parede de fogo) é um dispositivo de uma rede de computadores, na forma de um programa (software) ou de equipamento físico (hardware), que tem por objetivo aplicar uma política de segurança a um determinado ponto da rede, geralmente associado a redes TCP/IP.

Certifique-se de que o seu firewall está ativado para manter os cibercriminosos fora. Além disso, se você não quer que seus arquivos estejam visíveis em outro computador, desative por completo a opção de compartilhar documentos.

 Backup dos seus dados

Fazer o backup dos seus dados protege sua informação no caso de uma pane no computador ou falha elétrica. Também ajuda se você cair na armadilha de um ransomware*, que criptografa os seus dados confidenciais. Você pode fazer o backup manualmente através da transferência de documentos importantes para um disco rígido externo. Se você não tem uma quantidade significativa de dados para armazenar, use um serviço como o Dropbox, em que você recebe 2 GB de armazenamento gratuito.
*Obs: 
Ransomware é um tipo de malware (software malicioso) que afeta sistemas informáticos ou redes inteiras de computadores, tornando alguns dos dados disponíveis no equipamento totalmente inacessíveis, sendo que somente poderão ser desbloqueados a partir do pagamento de um resgate (ransom) por parte do usuário.

 Sites desonestos

Ainda que seja difícil saber se uma página web é confiável ou não, existem certas medidas que podemos tomar para melhorar nossas habilidades de identificação. Por exemplo, procure um bloqueio verde na barra de navegação e o prefixo do código “https://” no início da URL quando visitar sites em que é necessário introduzir os seus dados de cartão de crédito. Tenha cuidado ao fazer compras em sites do exterior e não clique em links enviados por e-mail, pois isso fará com que você seja direcionado ao site em si.

 Informações confidenciais

Não importa o site, sempre tenha cuidado com o tipo de informação que você disponibiliza. Embora seja de conhecimento geral, não custa nada reiterar que você não deve passar dados de cartão de crédito e seguro social, a menos que você confie no site completamente. Também é importante ser cuidadoso com seus perfis nas redes sociais. Revelar informações inocentes como, por exemplo, o nome do seu animal de estimação ou o nome de solteira da mãe pode resultar no roubo da sua identidade, já que usa esses mesmos dados em algum outro site para a verificação

 Senhas

Senhas podem ser insuficientes, para garantir a segurança de suas contas é necessário habilitar a verificação em duas etapas.

 Conexões seguras

Use sempre conexões seguras, como “https:” para acesso a sites web e remoto à empresa em que você trabalha, por exemplo.

— Atualização de software

Além de ficar em casa e se proteger, lembre-se de proteger também seus softwares mantendo-os atualizados e instalando mecanismos de segurança.

— NÃO abrir e-mails de desconhecidos

Nunca abra um e-mail de uma fonte desconhecida ou suspeita e, definitivamente, nunca abra os anexos. Também tenha cuidado com e-mails estranhos enviados por conhecidos, já que a conta desse contato pode ter sido hackeada. Nesse caso, apague a mensagem e o avise imediatamente de que sua conta pode ter sido comprometida. Isso irá ajudá-lo a evitar golpes de hackers e phishing, e que você seja um alvo.

A segurança do seu computador pessoal é, provavelmente, algo com que você já esteja lidando por um longo tempo. Se você atualiza o seu antivírus e cria senhas fortes para suas contas online, alterando-as regularmente, você tem todas as suas bases cobertas.

Outrossim, vale lembrar que a adoção do trabalho remoto, em temos de crise da Covid-19, pode trazer uma série de riscos de cibersegurança às empresas mais desavisadas. “O coronavírus não apenas está colocando a saúde das pessoas em cheque, como também está sendo usado como isca por cibercriminosos para propagação de malwares. Se por um lado o aumento do trabalho remoto ajuda a proteger a saúde dos trabalhadores, por outro, criminosos tentam tirar proveito do interesse por informações sobre a doença, ocultando arquivos maliciosos em documentos supostamente relacionados a este surto. Enquanto estivermos preocupados com as ameaças à saúde, é possível que surjam mais e mais golpes”, explica Dmitry Bestuzhev, diretor da equipe de pesquisa e análise para a América Latina da Kaspersky. (2)

Nesse contexto, vale o questionamento de como as empresas devem reduzir os riscos de seus colaboradores no home office e garantir a segurança da informação em teletrabalho.

Eis algumas dicas da Kaspersky: (3)

  • Forneça uma VPN (Rede Privada Virtual) para as equipes se conectarem com segurança à rede corporativa;

  • Restrinja os direitos de acesso dos usuários que se conectam à rede corporativa;

  • Eduque as equipes sobre os perigos de responder mensagens não solicitadas e acessar links ou baixar arquivos com origem desconhecida.

  • Instale as atualizações mais recentes dos sistemas operacionais e de aplicativos.

  • Proteja todos os dispositivos da empresa (incluindo smartphones, laptops e tablets) com uma solução de segurança adequada.

A telemedicina

A telemedicina não é exatamente uma novidade. A prática permite que médicos prestem atendimento à distância por meio de telefones, computadores e tablets, e tem sido discutida há bastante tempo. No Brasil, o Ministério da Saúde publicou Portaria Nº 467, de 20 de março de 2020, em resposta emergencial ao novo coronavírus, para complementar a Resolução CFM nº 1.643/2002 (4), de agosto de 2002, que regulamenta a telemedicina em território nacional. 

“Dispõe, em caráter excepcional e temporário, sobre as ações de telemedicina, com o objetivo de regulamentar e operacionalizar as medidas de enfrentamento da emergência de saúde pública de importância internacional previstas no artigo 3º da Lei nº 13.979, de 6 de fevereiro de 2020, decorrente da epidemia de COVID-19”. (5)

 Nesse contexto, a pandemia do novo coronavírus abriu uma exceção na rotina das consultas médicas. Agora, quem precisar pode ser atendido à distância por um médico. A telemedicina foi autorizada pelo Ministério da Saúde  em caráter de emergência e vai funcionar apenas enquanto houver recomendação de isolamento social

Os serviços, porém, não se restringem aos ligados à Covid-19, mas abrangem todas as especialidades médicas, que vão desde uma orientação pediátrica até uma consulta com um cirurgião plástico. Não existe uma lista restritiva de especialidades imposta pelo ministério e nem pelo Conselho Federal de Medicina (CFM).

Mas, mesmo sem proibição a qualquer tipo de atendimento, a orientação é que o atendimento médico online seja indicado especialmente para os idosos, que são hoje o maior grupo de risco para o coronavírus.

Privacidade e segurança das informações em telemedicin

E é preciso estar atento a algumas questões depois dessa consulta. No prontuário eletrônico é preciso constar data, hora e meio de comunicação utilizado, porque é um atendimento e existe responsabilidade civil do médico. Por segurança, é importante que o paciente guarde essas informações. Caso o médico tenha a tecnologia específica, como a assinatura eletrônica, é possível emitir, inclusive, um atestado à distância.

A telemedicina é uma inovação poderosa, com potencial para  a privacidade do paciente (a LGPD terá enorme papel nesse sentido).

Referência bibliográfica

LOPES, Airton. A Nova Safra de Laptops. Em Info Exame. São Paulo, n.265, p.52-57, 2008.

(1) Dicas para manter seu computador seguro. Acesso em https://www.kaspersky.com.br/blog/6-dicas-para-manter-seu-computador-pessoal-seguro/1637/

(2) e (3) Coronavírus: dicas para empresas adotarem home office , acessado em 15/04/2020: https://www.kaspersky.com.br/blog/coronavirus-dicas-home-office/14497/

(4) Resolução CFM nº 1.643/2002  disponível em https://sistemas.cfm.org.br/normas/visualizar/resolucoes/BR/2002/1643

(5) Diário oficial da União Portaria 467 de 20 de março de 2020, acessado em 15/04.2020 disponivel em http://www.in.gov.br/en/web/dou/-/portaria-n-467-de-20-de-marco-de-2020-249312996

Fonte: Consultor Jurídico

Servicios relacionados con los datos de investigación por parte de las bibliotecas universitarias: mucho a ofrecer, mucho por formar

Texto por Alexandre López

Choice es una unidad editorial de la Association of College & Research Libraries (ACRL), una división de la American Library Association (ALA). Choice y ACRL ofrecen herramientas de desarrollo profesional de biblioteconomía, dentro de las cuales se incluyen seminarios, podcasts, libros blancos, ensayos bibliográficos y publicaciones digitales, pensados para formar y reforzar las habilidades de los bibliotecarios. En este caso, se trata de un informe liderado por la reconocida profesora Carol Tenopir juntamente con tres profesores más de diversas universidades de los Estados Unidos.

Tal y como describen ya desde el inicio, se trata de un estudio a través de encuestas que sirve para actualizar y comparar lo realizado el año 2012 y que fue reseñado en este mismo blog1 en 2013 por parte de Alicia García García y Fernanda Peset. Independientemente de los principales resultados que se mencionarán posteriormente, es siempre interesante el hecho de poder medir diferentes espacios temporales, para conseguir la perspectiva. Así como en 2012 los servicios de datos de investigación (RDS por sus siglas en inglés) se anunciaban como retos de futuro, este año ya no hablamos como entonces de un servicio añadido de mucho valor, sino como una necesidad inseparable del personal investigador y académico.

Para entender los cambios, recordemos dos comentarios finales que se hacían en aquella reseña:

«Los datos de investigación están empezando a reconocerse como una fuente de conocimiento propia e independiente de las publicaciones que pueden emplearse en la validación de los resultados de investigación publicados en artículos, para generar nuevo conocimiento y ser explotados de manera interdisciplinar.»

«(…) si la biblioteca no se involucra activamente en la prestación de estos servicios, es muy probable que sea otro departamento el que los proporcione, apartando a la biblioteca de su labor en el proceso de investigación; y por tanto perderían una oportunidad para dar servicio a un rango más amplio de agentes sociales interesados en la gestión de los datos.»

En ambas realidades entonces reseñadas, nos encontramos los retos de futuro en todos los diferentes ámbitos del ciclo de la investigación (diseño de la investigación, compilación de datos, análisis de resultados, extracción de resultados y conocimiento) donde los datos son una necesidad. 

Para hacer la investigación en 2019, las encuestas fueron enviadas a algunas de las instituciones que ya la completaron y se aumentó con las de la lista de contactos de la ACRL, unas 3.160 direcciones de las cuales respondieron alrededor del 6 %. Más allá de la representatividad de la muestra, desde mi punto de vista, el interés radica en las respuestas y en la configuración de los servicios que ofrecen las bibliotecas académicas. También se llevaron a cabo 27 entrevistas a personal de algunas de las instituciones que respondieron la encuesta. Así mismo, el nivel de detalle de las preguntas hace que, por ejemplo, muestre la mayor parte de resultados en función del tamaño de las instituciones o bien por tipo de instituciones.

El trabajo permite, pues, comprender el nivel de servicios que las bibliotecas académicas de los Estados Unidos están ofreciendo en relación a la gestión de datos de investigación. Hay que tener en cuenta que el incremento de obligaciones y requerimientos por parte de los financiadores (públicos y privados) también en aquel caso se convierten en la fuerza motriz, el punto de encaje entre la voluntad de ofrecer nuevos servicios y la necesidad por parte de los investigadores de apoyo para una forma de gestionar (y difundir) sus resultados.

Los principales resultados del estudio son:

  • La mayor parte de bibliotecas académicas ofrecen servicios de información/consulta alrededor de los RDS.

  • Las bibliotecas en universidades que forman parte del grupo de las doctoral universities (según la Carnegie Classification of Institutions of Higher Education las intensivas en investigación de calidad) son las que más ofrecen RDS de tipo informativo.

  • Aquellas bibliotecas que ofrecen servicios y asesoramiento técnico (technical/hands on) lo iniciaron en los últimos tres años. De nuevo, una visión y un debate interesante sobre si es el ámbito bibliotecario quien debe ofrecer este servicio, también en el sentido de la alfabetización en curación, gestión y preservación de datos por parte de su personal.

  • En el caso de los servicios de información, lo más habitual es ofrecer fuentes de apoyo, seguido de la creación de guías de apoyo a la gestión de datos.

    Figura 1. RDS de tipo informativo/consulta ofrecidos por las bibliotecas que respondieron la encuesta. Fuente: Informe reseñado
  • Uno de los servicios más populares en el asesoramiento técnico incluye la participación directa con investigadores en un proyecto o un equipo de trabajo. De alguna forma, enlaza con el rol de bibliotecario integrado en el ámbito de la investigación, ahora en el caso de los datos de investigación para poder participar ya desde el inicio del diseño de los experimentos con un uso más o menos intensivo de datos.

    Figura 2. RDS de tipo técnico ofrecidos por las bibliotecas que respondieron la encuesta. Fuente: Informe reseñado
  • Las instituciones de investigación ofrecen más apoyo técnico, mientras que todas las instituciones piensan en identificar datos y datasets que podrían añadirse a los respectivos repositorios. De forma lógica, las bibliotecas tienen un papel clave en esta identificación, ya sea para los repositorios institucionales como para los temáticos.

  • Todavía hay un 44 % de las bibliotecas que han respondido que no tienen RDS, o bien por falta de financiación, de tiempo, de interés por parte de los investigadores o por falta de personal.

  • Las bibliotecas más grandes son las que tienen más bibliotecarios o especialistas dedicados a los RDS.

  • La mayor parte de instituciones de investigación están contratando nuevo personal para responder a las necesidades crecientes de RDS.

    Figura 3. Liderazgo y responsabilidad principal para los planes y programas de RDS. Fuente: Informe reseñado

Los autores concluyen que el abanico de opciones y tipos de RDS es grande, y que no es necesario que la biblioteca deba ofrecer todos los servicios, sino que una buena evaluación de capacidades y recursos puede conducir a planificar RDS realistas y con sentido. Así, por ejemplo, un 40 % de las bibliotecas dicen que colaboran con otras unidades de sus campus, cuestión que me parece clave para tener aproximaciones globales a la gestión de datos de investigación incluyendo la visión legal, técnica y de descripción. En diversos de los datos se ofrece también la visión del 2012 para poder comparar.

Los dos únicos puntos débiles, desde mi punto de vista, serían que faltaría una visión sobre la formación que hacen las bibliotecas, así como utilizar la terminología FAIR (findable, accessible, interoperable, reusable). Así mismo, el papel de los repositorios y su capacidad para poder dar respuesta a las necesidades también hubiera sido relevante, como se ha podido ver en estudios como el de FAIRxFAIR del CSUC. Complementa perfectamente las encuestas que se llevan a cabo en investigadores, como las que llevan a cabo en Digital Science.

A modo de cierre, podemos decir que se trata de un informe interesante para:

  • Científicos en general con requerimientos y responsabilidades referentes a los planes de gestiones de datos de sus proyectos, dado que encontrarán el contexto de los servicios que pueden ofrecer los servicios bibliotecarios.

  • Bibliotecas universitarias y de centros de investigación que ya están ofreciendo (o deberían) muchos de estos servicios y que pueden encontrar buenas prácticas, así como tendencias de futuro. 

  • Profesionales de la información en general que entienden que la gestión de datos necesita de la colaboración entre los múltiples grupos de interés implicados. En este caso, los datos abiertos son los relativos a la investigación, pero su tratamiento, la necesidad de descripción y metadatos son comunes en múltiples ámbitos y administraciones.

1 García García, Alicia; Peset, Fernanda (2013). «Tres en uno, tres informes sobre la gestión de los datos de investigación». Blok de BiD, 04/09/2013.

Fonte: Blok de Bid

Entrevista – Sofia Marshallowitz – Ciência de Dados aplicada ao Direito

Você já ouviu falar em Ciência de Dados (ou Data Science)? 

Esta área tem ganhado cada vez mais espaço no mercado, principalmente com o advento do Big Data.  No campo do Direito não é diferente, a ciência de dados está trazendo e ainda trará inúmeros benefícios.

Portanto, a capacitação dos profissionais do direito para qualificar sua participação em projetos de ciência de dados não é apenas essencial, mas um grande diferencial em sua carreira. Mesmo que seja apenas para conhecer as ferramentas e seu uso potencial e liderar sua equipe para essa mudança de cultura, ou para se tornar um usuário avançado dessas soluções.

Sendo assim, convidamos a Sofia Marshallowitz, cientista de dados, para explicar algumas características e como a ciência de dados pode ser aplicada ao Direito.

Confira a entrevista abaixo:

1 – O que é a Ciência de Dados (Data Science)? Como ela pode ser aplicada ao Direito?

Sofia Marshallowitz — Ciência de Dados é, em linhas gerais, uma área na qual você lida com dados a partir de conhecimento de negócio e procedimentos estatísticos, computacionais (e.g. machine learning) e matemáticos para estudar riscos, oportunidades e possibilidades aos quais um determinado evento de interesse está exposto. Na prática, prefiro dizer que Ciência de Dados é otimização de processos, é o desenvolvimento de conhecimento.

É uma área muito ampla e a verdade é que não existe um perfil “único” de cientista de dados. Pelo contrário: a gente é um canivete-suíço! É claro que há uma base de habilidades fundamentais para você trabalhar com data science, como saber desenvolver uma linguagem de programação mais difusa na área (e.g. Python, R), ter conhecimentos em matemática e em algoritmos de aprendizado de máquina e saber lidar ao menos com banco de dados relacionais (SQL), mas cada projeto ou empresa tem sua própria necessidade: já vi locais que preferiam de cientistas de dados que fossem mais habilidosos com visualização de dados, outros que experiência com visão computacional era requisito ou que saber a parte de business era mais importante.

A Ciência de Dados no Direito é fascinante e sua aplicação é vasta. Existe muita coisa a ser explorada. Podemos descobrir, por exemplo, o entendimento sobre um tema por tribunal ou por magistrados, calcular com mais precisão a chance de êxito e o tempo de trâmite, verificar qual tese é mais aderente, quais são as doutrinas e origem das jurisprudências mais citadas por uma turma ou julgador. Além disso, também podemos aplicar essas técnicas dentro de um escritório para ir além de simplesmente saber qual é o tempo gasto por atividade e descobrir o que faz com que gastemos tanto tempo para uma coisa e sejamos rápidos para outras. Também, a ciência de dados viabiliza outros produtos interessantes, como informações para conteúdo (infográficos, textos, vídeos) mais cativantes e chatbots.

2 – O LinkedIn divulgou, no começo do ano, uma lista com as profissões em alta para 2020 e cientista de dados estava nessa lista. Pelo que você tem visto, entre os escritórios de advocacia e departamentos jurídicos, há uma demanda muito grande por estes profissionais?

Sofia Marshallowitz — Dentro do universo jurídico, há uma diferença de procura por parte de escritórios, departamentos jurídicos e lawtechs. Em geral, as lawtechs contratam mais os cientistas de dados, inclusive porque poucos escritórios e departamentos contam com um setor de dados ou tecnologia para o Direito e acabam contratando uma empresa para isso. Porém, a quantidade de vagas para cientista de dados dentro do nosso universo ainda é bem menor em comparação com as demais áreas e para quem tem interesse em uma oportunidade, recomendo manter-se dentro de grupos sobre legaltechs e vagas jurídicas porque, às vezes, algumas colocações não são anunciadas abertamente, como no LinkedIn ou é algo mais informal, do tipo “fiquei sabendo que determinado lugar quer contratar, por que você não vai falar com eles?”.

3 – Como é o dia a dia de um cientista de dados jurídicos? (obs: me corrija se eu estiver errado com relação ao “cientista de dados jurídicos”)

Sofia Marshallowitz — Apesar de não usarem essa nomenclatura (cientista de dados jurídicos), confesso que sou super favorável em adotá-la, haha. Não há o costume de pontuar o escopo dos dados de um cientista dados, como, por exemplo, cientista de dados bancários ou cientista de dados imobiliários.

O dia-a-dia de um cientista de dados, seja ele jurídico ou não, varia muito conforme o projeto. Mas, buscando os padrões do cotidiano, algo chave no cientista de dados jurídicos é acompanhar as mudanças do Direito, tal qual o advogado. É preciso ler os assuntos atuais, monitorar o que está sendo comentado sobre o tema principal do projeto, conversar com os operadores do Direito. Aliás, diálogo é importantíssimo e manter contato com os advogados para entender suas problemáticas e dúvidas também faz parte do dia-a-dia, assim como redigir e apresentar os resultados de maneira compreensível a um leigo.

Além disso, o dia-a-dia envolve também coletar, limpar e organizar dados, pensar em soluções e modelos cabíveis e desenvolvê-los, treiná-los e testar hipóteses (e é por isso que é importante estar em contato com operadores do Direito).

4 – O que eu preciso fazer para seguir essa carreira? Existe algumas habilidades específicas?

Sofia Marshallowitz — Um bom cientista de dados tem conhecimento da área na qual aplica seus modelos. E enxergo que no Direito isso é ainda mais necessário: é uma matéria viva, com novidades cotidianas e um sistema complexo e regrado. Se às vezes já é confuso para quem está dentro, imagina para quem não está? E muita das hipóteses testadas advém de experiências e impressões, e uma boa análise de dados também é baseada nisso.

Se você deseja ser um cientista de dados, é fundamental ser curioso, e aprender ao menos uma linguagem de programação utilizada na área, saber trabalhar com bancos de dados, com visualização de dados, ter conhecimento matemático (especialmente regressão, otimização e estatística bayesiana) e lidar com aprendizado de máquina (como algoritmos de árvores de decisão, SVM e KNN). E, claro: comunicação e conhecimento do negócio faz parte da caixa de ferramentas do cientista de dados.

E se você deseja trabalhar com ciência de dados jurídicos, compreender o funcionamento do sistema judiciário brasileiro, os ritos processuais, o cotidiano dos profissionais do Direito e as discussões do momento são pontos muito desejáveis!

5 – Falando sobre linguagem, teria alguma específica que você indicaria para quem deseja dar o primeiro passo?

Sofia Marshallowitz — Eu sou fangirl do R, que é uma linguagem com foco em estatística, desenvolvida justamente para análise, manipulação e visualização de dados. Há vários pacotes (que são, em resumo, códigos contendo funções “já prontas” para uso, poupando assim ter que escrever e errar essas funções) voltados para ciência de dados e machine learning. Além de uma comunidade fantástica. Python também é muito boa, tem sintaxe simples e otimiza o tempo de desenvolvimento. Ambas são excelentes ponto de partida. E aprenda SQL concomitantemente. SQL é a linguagem para interagir com bancos de dados relacionais.

(Mas, em tempo, se você tem algum conhecimento em orientação a objetos e Java, você pode dar o primeiro passo com Scala).

Sofia Marshallowitz – Cientista de Dados no Pires & Gonçalves Advogados, pesquisadora do Lawgorithm, estudante de Direito na Universidade Presbiteriana Mackenzie. Possivelmente um bot.

Fonte: Ramo Jurídico

10 LIVROS PARA O CIENTISTA DE DADOS DURANTE A QUARENTENA

Se você trabalha com dados, tenho certeza que esses livros ajudarão você a se manter ativo e aprendendo. Mesmo em tempos de Covid-19.

Ninguém gosta da quarentena e o transtorno é para todos, mas não podemos ficar paralisados. A Pandemia vai passar e o mundo estará bem diferente depois dela. Para se manter competitivo em um mundo onde automação e trabalho remoto se tornarão a regra, é preciso manter-se em “modo de aprendizado”.

E, se possível, você pode reservar um tempo na quarentena e adquirir uma nova habilidade ou desenvolver algum skill. Isso não significa apenas fazer cursos ou estudar assuntos técnicos, mas sim estar em constante movimento. Você pode desenvolver habilidades em uma área de negócio ou adquirir habilidades de liderança e comunicação. E um bom livro pode ajudar você.

Aqui estão algumas dicas de livros não apenas para Cientistas de Dados, mas para qualquer profissional interessando em desenvolver habilidades adicionais. Alguns livros são mais técnicos, enquanto outros são mais divertidos, mas tenho certeza que você encontrará o seu livro ideal aqui. Os livros são excelentes e são todos em inglês. Ahh, não sabe inglês? Ok, aproveite a oportunidade e estude o idioma também.

Mas se preferir títulos em português, na seção de referências ao final do post tem algumas dicas para você.

Artificial Intelligence: A Guide for Thinking Humans

Eu recomendo este livro não apenas para Cientistas de Dados, mas para qualquer pessoa interessada em IA e em seus resultados futuros. Para um livro voltado para o público em geral, ele dedica muito tempo aos detalhes da visão computacional e como os computadores “pensam”, fornecendo uma visão clara e ampla sobre o assunto. Ele também aborda as perspectivas da IA para o futuro e o que você pode esperar para os próximos anos. O potencial da IA às vezes pode nos assustar, mas também tendemos a superestimar seu progresso nos últimos anos.

Statistics: a Very Short Introduction

Este livro é especialmente útil se você é um Cientista de Dados com experiência em TI ou negócios e deseja entender os conceitos básicos de técnicas estatísticas sem entrar em detalhes. Abrange o básico, desde distribuições de probabilidade até análise de regressão e árvores de decisão. Como o nome diz, é bastante curto e você deve levar poucos dias para ler. 

Lean Analytics


Este livro é especialmente recomendado se você começou a trabalhar com dados bem recentemente, ou ainda está iniciando o seu aprendizado e deseja desenvolver seu potencial em relação aos dados. Ele ajuda a definir as métricas mais importantes para sua empresa, dependendo do modelo de negócio e como otimizá-las, sem se afogar em uma pilha de métricas não usuais. 

The Man Who Solved the Market

Um livro não técnico, conta a história de Jim Simons, um matemático que começou a usar estatísticas para negociar ações, em uma época em que todo mundo no mercado usava apenas instintos e análises fundamentais tradicionais. Obviamente, todo mundo ficou cético em relação a seus métodos, mas depois de anos gerenciando seu fundo de investimentos e obtendo resultados surpreendentes, as pessoas acabaram cedendo e começaram a reconhecer o poder dos chamados quant hedge funds, que desempenham um papel enorme no setor financeiro nos dias atuais.

The Business Forecasting Deal

Uma cartilha sobre a arte da previsão de negócios, uma das maneiras mais tradicionais de usar dados e estatísticas em aplicativos de negócios. Realmente ajuda se você tem algum conhecimento sobre estatísticas e séries temporais e precisa fazer previsões no trabalho, como prever receita. Abrange o básico e os mitos, com uma abordagem muito prática (embora as técnicas apresentadas possam ser consideradas antiquadas, elas geralmente funcionam surpreendentemente bem nesse domínio, em comparação às técnicas de aprendizado de máquina).

Storytelling with Data

Um item obrigatório para quem precisa usar números no trabalho para vender uma ideia, apresentar resultados ou contar uma história. É mais adequado para analistas de negócios, mas os Cientistas de Dados também podem se beneficiar disso, aprendendo técnicas de visualização de dados que os ajudarão a mostrar os resultados do modelo, visualizar e plotar melhor os dados. Esse é o tipo de livro para o qual você volta o tempo todo para revisar conceitos importantes.

The Book of Why

Muitas vezes nos dizem que “a correlação não implica causalidade”. Quando você pensa sobre isso, no entanto, o conceito de causalidade não é muito claro: o que exatamente isso significa? Este livro conta a história de como vemos a causalidade de uma perspectiva filosófica e, em seguida, apresenta as ferramentas e modelos matemáticos para entendê-la. Isso mudará a maneira como você pensa sobre causa e efeito.

Moneyball


Esta é a história de Billy Beane e Paul DePodesta, que foram capazes de levar o Oakland Athletics, um pequeno time de beisebol, através de uma excelente campanha na Major League Baseball, escolhendo jogadores negligenciados baratos. Como eles fizeram isso? Usando dados. Isso mudou a maneira como as equipes escolhem seus jogadores, o que anteriormente era feito exclusivamente por olheiros e seus instintos. A história também inspirou um filme com o mesmo nome, e ambos são obras-primas.

Data Strategy

Este é um livro mais voltado para o lado comercial, e pode ser útil para gerentes executivos e até pessoas das áreas administrativas entenderem como desbloquear o poder dos dados em uma organização. Vai desde como extrair informações valiosas dos dados até como monetizá-las. Se você é um Cientista de Dados, isso pode ajudá-lo a ter uma visão mais ampla do seu papel na empresa e como você pode ajudá-lo a agregar valor usando os dados.

Feature Engineering for Machine Learning

Embora a Engenharia de Recursos seja uma das etapas mais importantes no fluxo de trabalho da Ciência de Dados, às vezes ela é ignorada. Este livro é uma boa visão geral desse processo, incluindo técnicas detalhadas, advertências e aplicações práticas. Ele vem com a explicação matemática e o código Python para a maioria dos métodos, portanto, você precisa de um conhecimento técnico razoável para seguir adiante. 

Boa leitura.

Referências:

10 Sugestões de Livros Sobre Data Science Para Você Ler em 2020

Bibliografia Data Science e Big Data

Bibliografia Machine Learning e Inteligência Artificial

10 Books Data Scientists Should Read During Lockdown

Lockdown reading: 8 of the best book recommendations for sustainability and energy professionals

Inspiring Books For The Lockdown

Fonte: Data Science Academy

Começaram a pipocar Projetos de Lei envolvendo privacidade e internet por causa do coronavírus

por 

Robô Coding Rights

Ilustração por Clara Juliano/Coding Rights

por Joana Varon e Bruna Santos

Desde o dia 11 de março, quando a Organização Mundial da Saúde declarou que estamos vivendo uma pandemia, o Congresso Nacional, ainda que operando de maneira virtual, propôs até 7 de abril, pelo menos 18 novos projetos de lei que operam na interseção entre COVID-19 e tecnologia. Entre os temas estão: direito de acesso à internet, desinformação, proteção de dados pessoais e vigilância.

Com mais pessoas em casa cumprindo isolamento ou distanciamento social, muitas de nós estamos passando mais tempo na Internet e digitalizando, ou intensificando a digitalização, de várias das atividades de nossas vidas que ainda não eram mediadas por tecnologia.

Para quem tem acesso e oportunidade de #FicarEmCasa, a Internet tem ajudado a reduzir distâncias e suavizar a sensação de isolamento. Com as restrições de deslocamento, o home office e as reuniões virtuais estão sendo cada vez mais adotados, assim como a compra online de mantimentos, encontros virtuais com amigos, namorades, crushes, aulas ou sessões de terapia. Nesses tempos difíceis, a Internet está facilitando a articulação de grupos de solidariedade, autocuidado, ativismo, zuêra e riso; além de trazer distrações nos games, filmes e nas milhões de lives, que vão de shows à meditação, aulas de yoga, novas receitas e o que vier.

O vírus da falta de ar e do isolamento que, numa rapidez inimaginável, fez grandes metrópoles globais pararem para um respiro, canalizou grande parte dessa energia de humanos confinados para o formato de dados que recheiam as fibras óticas e ondas de wifi que conectam o planeta. Há quem diga que estamos fazendo um grande upload das mentes humanas para a Internet. E, com isso, vamos alimentando ainda mais o capitalismo das grandes plataformas, que funcionam como extrativistas de dados e da nossa atenção que, muitas vezes, é fisgada pelo escândalo da desinformação ou, simplesmente, pela nível surreal da política nacional.

Como sociedade, já estamos mutando para lidar com a pandemia. Se as tecnologias também são parte dessa mutação e, algumas vezes, em visões simplistas, são até apontadas como a solução, é de se esperar que a legislação, como tecnologia sociopolítica, também tente acompanhar todas essas mudanças de contexto.

Mas 18 novos projetos de lei em poucas semanas, é bastante. Antes, é necessário compreender essas mudanças que estão sendo propostas em um contexto emergencial e que devem delinear as interações em um mundo pós-COVID-19.

Por isso, por meio do nosso radarlegislativo.org, fizemos um levantamento inicial desses projetos, compilados abaixo por eixos temáticos, bem como de algumas respostas da sociedade civil organizada a essas propostas.

Projetos de lei sobre Covid-19 e tecnologia tramitando no Congresso Nacional


É possível ver uma versão interativa do grafo dos projetos aqui

Direito de Acesso à Internet

Mapeamos 9 novos projetos de lei, 8 deles na Câmara dos Deputados e 1 no Senado Federal, tratando de diferentes maneiras de proibir ou dificultar a interrupção dos serviços de conexão à internet residencial, móvel e comercial durante o estado de calamidade pública decorrente da COVID-19, muitos deles considerando o acesso à internet como um serviço essencial.

Projetos de lei que tratam de acesso à Internet em tempos de COVID-19

Grafo de projetos envolvendo internet e privacidade da câmera e no senado

Existem propostas bastante positivas no que diz respeito à universalização do acesso, principalmente o PL 1201/2020, que tramita no Senado por iniciativa do senador Rogério Carvalho (PT/SE) e visa obrigar operadoras a oferecerem pacotes gratuitos para o período da pandemia.

Outros também bastante protetivos tratam da suspensão de cobrança e proibição de corte. Menos ambiciosos, existem projetos que apresentam a redução da velocidade ou limitação da franquia para 2 GB como alternativa para o corte completo do serviço, ou propõem apenas impedimento de cobrança de multa por quebra de fidelidade e vedação de reajustes.

Recentemente, a Coalizão Direitos na Rede, grupo de 38 organizações que tratam de temas de tecnologia e direitos humanos, entre elas a Coding Rights, encaminhou uma carta reivindicando a garantia de conexão à Internet no momento mais crítico da Pandemia.

A carta foi entregue para as lideranças de partidos na Câmara dos Deputados, no Senado Federal e no Congresso Nacional e destaca que “a telemedicina, a educação e trabalho à distância, o acesso à informação e a liberdade de expressão dependem do serviço de acesso à conexão à Internet,” mas que o atual “momento de redução da renda familiar e limitação do deslocamento que, em geral, permite a conexão em locais sem limites de navegação, no trabalho, em Wi-Fi público ou no comércio,” podem gerar uma aumento na taxa de pessoas desconectadas da rede.

Segundo dados de 2018 da pesquisa TIC Domicílios, divulgada em 2019 pelo Nic.BR (Núcleo de Informação e Coordenação do Ponto BR) , 33% dos domicílios brasileiros ainda estão desconectados da Internet, seja fixa ou do celular. Esse índice é maior ainda no Nordeste (43%) e nos domicílios da classe D e E chegam a 59%.

Nesta mesma classe social, entre os conectados, 47% acessam à rede apenas por meio de internet móvel. Segundo estudo da Agência Nacional de Telecomunicações (Anatel), “55% das conexões móveis no Brasil operam na modalidade pré-paga, com limites baixos de tráfego de dados.”

A população mais vulnerável não pode ser ainda mais vulnerabilizada com previsões de desconectividade e falta de acesso à informação nesse momento em que informação pode salvar vidas. São bem vindos, portanto, projetos de lei que obrigam o oferecimento gratuito, suspendem cobranças e proíbem cortes de conexão. Interessante observar a pandemia quebrando algumas lógicas de mercado de restrição ao acesso à serviços essenciais. Esperamos que alguns desses projetos prosperem e inspirem momentos pós-pandemia.

COVID-19 e Desinformação

A pandemia do Coronavírus também veio acompanhada de uma propagação de notícias falsas e de desinformação que contaminam a rede, por vezes, de maneira tão letal quanto a COVID-19.

Tentando lidar com essa questão, mapeamos mais 5 novos projetos de lei que tratam especificamente de desinformação e saúde pública no contexto da pandemia.

Projetos de lei que tratam de desinformação em tempos de COVID-19

Grafo de projetos de lei relacionado a desinformação

Três deles propõem mudanças no Código penal para considerar como crime a divulgação de notícias falsas sobre a pandemia, sendo que um deles, o P1416/2020 , proposto pela Deputada Marília Arraes (PT/PE), para além da divulgação, também inclui como crime o compartilhamento “por ocupante de cargo, função ou emprego público de informação falsa, sem fundamento ou difamatória.”

O PL1416/200 chama atenção particularmente pelo fato de que, na semana passada, o próprio presidente da República teve seus posts deletados pelo Twitter e, posteriormente, Facebook e Instagram, por contrariar as orientações da Organização Mundial da Saúde sobre distanciamento social.

Na ocasião, publicamos um artigo tentando ressaltar as dificuldades de balancear segurança, direito de acesso à informação e o poder das plataformas em limitar nossa liberdade de expressão. Se esse projeto de lei da Deputada Marĩlia Arraes fosse aprovado, além de um “delete” por parte das plataformas, o presidente claramente cometeria um crime se publicasse posts assim.

Os outros dois projetos de lei mapeados são idênticos, intitulados “Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet”, um apresentado na Câmara e outro no Senado, respectivamente nos dias 1 e 2 de abril, com autoria de vários parlamentares.

A proposta visa alterar o Marco Civil da Internet, mudando algumas definições e criando capítulos que tratam do uso de bots e botnets, bem como da responsabilidade dos provedores de aplicações, incluindo de apps de mensagem, como o WhatsApp, para tomarem medidas contra a desinformação e de transparência. O projeto de lei também trata da atuação dos chamados “fact checkers” ou verificadores de conteúdo e da transparência em caso de propaganda direcionada. Ainda que sua justificativa traga o contexto da pandemia, apresentando a desinformação e o vírus como “inimigo comum”, trata-se de uma projeto de lei que visa claramente também o contexto eleitoral e que modifica substancialmente as previsões sobre responsabilização de intermediários do Marco Civil da Internet.

Desde setembro de 2019, a Câmara dos Deputados debate o tema da desinformação na Comissão Parlamentar Mista de Inquérito sobre Fake News, espaço que tem sido campo de batalhas políticas, principalmente remetendo ao papel do “gabinete do ódio” nas eleições de 2018.

Recentemente, a comissão teve o seu prazo de funcionamento prorrogado por mais 180 dias. Esses projetos de lei também devem ser debatidos por lá em breve.

Consideramos que resoluções na esfera cível são mais adequadas, desde que levem em consideração princípios que norteiam o uso da Internet no Brasil, como liberdade de expressão e privacidade. Nesse sentido, a Coalizão Direitos na Rede também produziu uma cartilha sobre o artigo 19 do Marco Civil da Internet, que provavelmente será revisto diante de todo esse contexto.

Vigência da Lei de Proteção de Dados

Maior digitalização das nossas atividades cotidianas faz com que mais dados sejam produzidos sobre nossos hábitos e ficamos ainda mais vulneráveis a estratégias de desinformação, manipulação e controle. Razões pelas quais temos motivos de sobra para colocarmos logo em vigor a tão debatida e aprovada Lei Geral de Proteção de Dados Pessoais (LGPD).

Depois de longos 8 anos de discussões, a LGPD foi sancionada em agosto de 2018 e passou por alterações durante as discussões da Medida Provisória 869/2018, que instituiu a criação da Autoridade Nacional de Proteção de Dados Pessoais.

A lei entraria em vigor em agosto deste ano, contudo, mapeamos que até hoje temos 4 novos projetos de lei tentando aumentar seu prazo de início de vigência, na maioria dos casos, ironicamente, trazendo o contexto da pandemia, como justificativa.

Projetos de lei que postergam a vigência da LGPD em tempos de COVID-19

Grafo com projetos sobre vigência da LGPD

Boa parte das fundamentações se baseia na falta de capacidade financeira de micro e pequenas empresas de realizar a adequação ao disposto na Lei ante o cenário de crise. Apesar da LGPD conter a previsão de edição de regulamento específico com procedimentos de adequação simplificados para micro e pequenas empresas, bem como startups ou empresas de inovação, o argumento comum que as empresas não estão financeiramente preparadas para realizar adequações no cenário de pandemia tem perdurado.

Um deles, o PL 1179/2020, que dispõe sobre o Regime Jurídico Emergencial e Transitório das relações jurídicas de Direito Privado, relativo ao período no qual perdurar a pandemia do Coronavírus, foi recentemente aprovado no Senado Federal no formato do substitutivo da Senadora Simone Tebet, que posterga a entrada em vigor da LGPD para 01/01/2021 e a aplicação das sanções administrativas de lei para agosto de 2021.

Também em parceria com a Coalizão Direitos na Rede publicamos um posicionamento sobre os possíveis riscos à proteção de dados pessoais que o cenário de pandemia do Coronavírus apresenta. O documento em questão chama o Estado brasileiro a respeitar o compromisso assumido com a Proteção de Dados Pessoais e frisa a importância da LGPD para a salvaguarda dos direitos dos cidadãos e garantidora de segurança jurídica para as atividades de tratamento de dados pessoais por atores.

Essas previsões se fazem ainda mais importantes se levarmos em consideração iniciativas que estão pipocando em diferentes estados e municípios do país de se fazer parcerias com operadoras de telefonia ou gigantes das redes sociais para compartilhar dados de cidadãos e monitorar o deslocamento.

Recentemente, o SindiTelebrasil, sindicato das empresas de telefonia móvel, anunciou que as principais operadoras de telefonia móvel vão oferecer ao Ministério da Ciência, Tecnologia e Comunicações, “uma solução única de dados para monitorar mobilidade populacional, deslocamentos, pontos de aglomeração e identificar situações de concentração de pessoas e risco de contaminação pelo novo coronavírus”.

A medida acabou confirmando falas anteriores dos ministros da Saúde e da Ciência, Tecnologia e Comunicações, que vinham acenando para o setor privado sobre a necessidade de utilização dos dados de usuários. Ainda se sabe poucos detalhes sobre essas iniciativas. Buscando alguns esclarecimentos, chegamos a apresentar pedidos de acesso à informação para ambos Ministérios. Seguimos aguardando respostas.

Em uma primeira análise, esse monitoramento sem tomarmos ciência, podermos consentir ou sem sabermos seus limites é bastante preocupante, especialmente quando não temos uma Lei de Proteção de Dados em vigor para trazer princípios, reforçar direitos e sanções aplicáveis.

Apenas com todos esses elementos seria possível avaliar se o uso de nossas informações, muitas delas dados sensíveis, é realmente necessário e proporcional aos fins a que se destinam.

Dentre os países da América Latina, o Brasil é um dos poucos países sem uma Lei de Proteção de Dados Pessoais vigente e isso torna o cenário de garantia do direito à privacidade e proteção de dados pessoais mais fraco por aqui.

Com organizações parceiras da América Latina que compõe a rede Al Sur, temos monitorado o uso de tecnologias de vigilância para o combate da pandemia do Coronavírus e divulgamos essa carta conjunta que pede aos governos da região que qualquer consideração para o uso de tecnologias digitais de monitoramento deve atender direitos humanos fundamentais. No mesmo sentido, também apoiamos iniciativa semelhante de organizações internacionais parceiras.

Transparência do Legislativo em home office

Com esse movimento de mudança pro virtual, as sessões da Câmara e Senado passaram a funcionar de maneira remota. Essa adaptação das atividades legislativas adiciona um novo nível de complexidade para os trabalhos de advocacy e de acompanhamento da atividade das casas, já que a atuação presencial não é mais possível.

Antecipando as dificuldades colocadas por essa mudança dos trabalhos legislativos pro virtual, a Frente Parlamentar Mista pela Defesa da Democracia e dos Direitos Humanos, da qual a Coding Rights faz parte, elaborou uma carta cobrando mais transparência e participação da sociedade civil nos trabalhos virtuais do Congresso NacionalEntre as reivindicações estão reforçar a necessidade de transmissão de sessões solenes, audiências públicas, reuniões de trabalho e votações do Congresso Nacional, uma maior divulgação dos temas votados e informações sobre possíveis canais de participação social.

Projetos de Lei sobre acesso à internet

PL 1292/2020

PL 1231/2020

PL 1537/2020

PL 1422/2020

PL 1201/2020

PL 1285/2020

PL 1036/2020

PL 820/2020

PL 724/2020

Projetos de lei sobre desinformação

PL 1358/2020

PL 1429/2020

PL 1416/2020

PL 1068/2020

PL 1258/2020

Projetos de Lei sobre a vigência da LGPD

PL 1198/2020

PL 1179/2020

PL 1027/2020

PL 1164/2020


*Joana Varon é diretora da Coding Rights e afiliada do Berkman Klein Center da Universidade de Harvard, e Bruna Santos é coordenadora de advocacy da Coding Rights.

Este artigo apareceu originalmente no Medium e foi republicado com autorização da Coding Rights.

A Coding Rights é um think tank para promover o entendimento e contribuir para a proteção e promoção de Direitos Humanos na internet e no mundo digital.

Fonte: GIZMODO Brasil

A Lei Geral de Proteção de Dados em tempos de coronavírus

Luiza Sato *

Foto: Shutterstock

O novo coronavírus tirou os holofotes de qualquer outro tema anteriormente em evidência, não tendo sido poupada a nossa Lei Geral de Proteção de Dados, a LGPD. De qualquer forma, são muitos e de extrema relevância os pontos em que os dois assuntos convergem.

Publicação dos casos de suspeita, dos portadores e dos mortos por coronavírus

Autoridades governamentais, hospitais, centros de pesquisa, companhias de transporte, administradores de propriedades, jornalistas e outros entes ao redor do mundo estão compartilhando dados em uma escala sem precedentes para impedir a disseminação doença, ajudando a identificar indivíduos que entraram em contato com pessoas infectadas.

Os dados são compartilhados publicamente devido aos enormes benefícios para a Humanidade em ter acesso a tais dados. No entanto, ainda configuram dados pessoais de saúde e seu uso deve seguir uma série de restrições legais.

A propagação de dados pessoais pela simples vontade em sanar a curiosidade alheia, sem a preocupação com o interesse público, a proteção da vida ou com a incolumidade física de indivíduos, poderia ser considerado um tratamento indevido de dados pessoais.

No dia 26 de fevereiro, tivemos no Brasil o primeiro caso confirmado de coronavírus em território nacional. Nessa data, já tínhamos acesso pela mídia a dados do paciente como sua procedência, gênero, idade, problemas de saúde e hospital em que ficaria internado.

Já utilizando os preceitos da LGPD, que ainda não está em vigor, mas que já pode servir como as melhores diretrizes que temos para aplicação hoje sobre o tema, o tratamento de dados pessoais sensíveis, dentre os quais encontram-se os dados de saúde, poderá ocorrer sem fornecimento de consentimento do titular, nas hipóteses em que for indispensável para a realização de estudos por órgão de pesquisa; para a proteção da vida ou da incolumidade física do titular ou de terceiros; e para a tutela da saúde, exclusivamente, em procedimento realizado por profissionais de saúde, serviços de saúde ou autoridade sanitária.

A LGPD também dispõe que a lei não será aplicável para o tratamento de dados pessoais realizado para fins exclusivos de segurança pública, defesa nacional e segurança do Estado, cenários que deverão ser regidos por legislação específica, que deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público.

Para a maior parte das divulgações, deverão ser envidados todos os esforços para limitar as informações divulgadas àquelas que são o “mínimo necessário” para atingir determinada finalidade. Ainda, mesmo nessas situações emergenciais que estamos presenciando, as entidades deverão continuar implementando salvaguardas razoáveis para proteger os dados pessoais do paciente contra usos e divulgações ilícitas, sejam elas intencionais ou não intencionais.

Contato com os habitantes de um território sobre calamidades e situações de emergência

Imediatamente após o pronunciamento de Emmanuel Macron aos residentes da França anunciando as fortes medidas de prevenção ao vírus, muitos deles receberam mensagens de texto com informações sobre o isolamento compulsório.

Caso o mesmo ocorresse no Brasil, já com a LGPD em vigor, haveria o amparo da lei, se considerada a execução de medidas públicas pelo governo e a obrigação legal ou regulatória a ser cumprida pelas operadoras de celulares.

Uso de dados pessoais para a invenção da cura e de vacinas

Muito ainda se falará sobre a legitimidade do uso massivo de dados para a invenção de vacinas e remédios contra o coronavírus.

Ficaram em evidência as ações da Verily, organização de pesquisa da Alphabet (holding do Google) dedicada ao estudo das ciências da vida, para os testes de COVID-19. Os questionamentos ocorreram por conta do embate entre o acesso pelo Google aos dados obtidos por tais testes e o benefício da assistência às entidades públicas na condução dos testes para fins de supressão da doença.

Em um primeiro momento, parece estranho que uma empresa de tecnologia conduza testes em uma situação de crise de saúde pública, entretanto, resta claro a todos que os órgãos governamentais não possuem minimamente a tecnologia, o know-how ou sofisticação técnica de uma empresa como o Google em uma situação extraordinária como essa em pauta.

Tem-se que, seguidos os devidos preceitos legais e conduzidas as atividades sempre de forma a adotar as melhores práticas de proteção de dados (ex: obediência às bases legais para o tratamento de dados pessoais, anonimização de dados, realização de um relatório de impacto à proteção de dados pessoais, etc.), o uso de dados pessoais para a busca de tal bem comum não só será lícito como extremamente bem-vindo.

Teletrabalho

Outra questão em voga por conta do confinamento recomendado ou exigido diz respeito aos cuidados com o tratamento de dados pessoais por empregados em teletrabalho.

Isso porque os empregados em teletrabalho terão acesso a dados pessoais muitas vezes por meio de um dispositivo particular ou, mesmo se pelo dispositivo da empresa, utilizando tecnologias que poderão não cumprir com as medidas técnicas adequadas para a proteção de dados, como o Wi-Fi público.

Nesse caso, a melhor prática a ser conduzida pela empresa é a manutenção de uma forte política de segurança da informação, que inclui treinamentos contínuos para a sua devida absorção pelos empregados.

Outras medidas recomendáveis para que os preceitos da LGPD sejam seguidos são o investimento em um sistema de armazenamento em nuvem, em que o empregador consiga realizar procedimentos de segurança (como a criptografia de dados) e que haja um menor vínculo ao dispositivo físico particular do empregado; a realização de procedimento rotineiro de eliminação de eventuais dados salvos no dispositivo eletrônico particular em razão do trabalho; e o acesso protegido à caixa de e-mails corporativa e às bases de dados da empresa, apenas acessíveis por dispositivos com um mínimo de controles de segurança.

Prorrogação do início da vigência da LGPD

Por fim, a pergunta de 1 milhão de dólares: a LGPD, marcada para entrar em vigor em agosto, terá sua vigência prorrogada por conta do atual cenário? Resposta rápida: não se sabe.

O que existe é uma óbvia tendência a inexistir uma Autoridade Nacional de Proteção de Dados (ANPD) atuante em agosto – considerando a priorização da aplicação dos recursos financeiros pelo governo em saúde pública e na manutenção da economia no país – e a consequente insegurança jurídica na aplicação da LGPD sem a autoridade.

Por outro lado, conforme demonstrado por este artigo, a vigência de legislação que disponha sobre a proteção de dados faz-se de absoluto interesse público, especialmente em tempos de desmedida disseminação de dados pessoais, inclusive sensíveis, como o atual. É de extremo risco colocar em xeque a credibilidade nacional e internacional da aplicação da lei com a ideia de que ela “não vai pegar no Brasil”.

Por conta da assustadora disseminação da COVID-19, a proteção de dados não parece ser a principal preocupação da população, e com todas as razões.

No entanto, essa parece ser uma excelente oportunidade para refletirmos sobre o papel da proteção de dados na epidemiologia e em grandes calamidades de saúde pública como o que estamos vivenciando.

*Luiza Sato é sócia conselheira do ASBZ Advogados, responsável pela área de Proteção de Dados, Direito Digital e Propriedade Intelectual.

Fonte: CIO

“Se a gente quer fazer comparações, os dados precisam ter a mesma base”

Novos dados sobre a evolução da pandemia do coronavírus são divulgados todos os dias no país

Novidades sobre a pandemia do coronavírus surgem a todo momento. Todos os dias, novos dados a respeito do número de casos confirmados da Covid-19 e de mortes causadas pela doença são divulgados no Brasil e em outros países. Analisar os dados, estabelecer comparações e tirar conclusões sobre a situação da pandemia no país parece ser inevitável, mas se não houver uma unidade entre as diferentes fontes de dados ou clareza na forma com que eles são organizados e divulgados, o resultado pode ser a ideia de um cenário mais otimista ou pessimista do que realmente é, além de prejudicar o planejamento e execução de políticas de saúde pública.

A conclusão é de professores da Unicamp que trabalham com ciência de dados e análises de informações numéricas em diferentes áreas de pesquisa e estão aproveitando a oportunidade surgida com o cenário inédito provocado pela pandemia para refletirem sobre as formas com que os dados sobre o vírus e a doença têm sido coletados e disponibilizados para pesquisadores e imprensa. Eles também propõem soluções que reduzam os efeitos de análises e comparações que possam causar mais prejuízos do que o próprio contexto já provoca.

“As pessoas olham para resultado, mas não questionam de onde ele vem”

Acostumado a trabalhar com dados obtidos por diversas fontes na área da neurociência, Rickson Mesquita, professor do Instituto de Física Gleb Wataghin (IFGW) sabe que as primeiras informações necessárias para que boas análises sejam feitas é justamente sobre como esses dados foram obtidos, quais métodos foram utilizados, qual área ou período de tempo eles dizem respeito. Ou seja, não basta ler os dados, é preciso conhecer o caminho e as condições que os tornaram informações relevantes.

É justamente essa consciência que fez com que o professor parasse para refletir sobre como isso tem sido feito com os dados divulgados sobre o coronavírus, principalmente em relação ao número de casos confirmados da Covid-19 no Brasil e no mundo. Em um texto publicado em seu perfil na plataforma Medium, ele argumenta que as comparações feitas entre os números de casos confirmados no Brasil e a situação de outro países requer cuidado e pode ser algo improdutivo. Isso porque a forma com que a doença vem sendo diagnosticada e notificada varia entre cada país, o que pode gerar falsas simetrias. “Não faz muito sentido analisar números de casos se eles estão sendo reportados de diferentes formas, isso gera ainda mais incertezas para as pessoas. Quando as pessoas tentam comparar os dados de diferentes países, aí a confusão fica ainda maior”, analisa Rickson.

Na visão do professor, o número de mortes causadas pela Covid-19 seria um parâmetro que oferece menos riscos a divergências, já que são eventos consumados. A partir disso, ele propõe outras formas de comparação entre a situação dos países, como o número de mortes total e a evolução das mortes dia após dia, o que permite verificar como a pandemia se comporta pelo mundo. Rickson também critica outras comparações e relativizações, como a de justificar uma suposta situação mais positiva no Brasil por conta da grande extensão territorial do país. Segundo ele informa no texto, a mensagem que deveria ser extraída de dados que mostram ainda um número baixo de contaminação em uma grande população é a de que há a possibilidade de muitas pessoas ainda contraírem o coronavírus e, por isso, os cuidados devem ser mantidos.

montagem mostra dois gráficos, um com a evolução no número de mortes por dia pelo coronavírus e outro com o número de mortes totais
Gráficos baseados em dados do Centro Europeu para o Controle de Doenças mostram a evolução no número de mortes por dia nos países e o número total de mortes registrado

Rickson analisa que é importante que as pessoas conheçam a fonte dos dados fornecidos por órgãos oficiais de saúde e também pelos meios de comunicação. De acordo com ele, este é um cenário em que a disseminação de informações ocorre de forma rápida e por qualquer pessoa e, por isso, requer responsabilidade e consciência dos efeitos na vida das pessoas. “As pessoas precisam de informações para se tornarem conscientes do que está acontecendo, mas as informações devem ser precisas. As redes sociais acabam dando amplitude para qualquer análise entre uma população onde a matemática pode ser uma grande dificuldade, então quando as pessoas veem um número, elas tendem a aceitar sem questionar. Isso pode ser um problema”, adverte o professor.

Solução: criar a própria base de dados

Trabalhar com dados também faz parte do cotidiano de Paula Dornhofer Costa, professora da Faculdade de Engenhara Elétrica e Computação (FEEC) da Unicamp. Ela integra um projeto de pesquisa que cruza dados de saúde a variáveis do clima, identificando como as condições de temperatura, umidade e eventos climáticos podem influenciar na saúde das pessoas. Fazem parte dele a professora Eliana Cotta de Faria, da Faculdade de Ciências Médicas (FCM), e Ana Maria Heuminski de Ávila, pesquisadora do Centro de Pesquisas Meteorológicas e Climáticas Aplicadas à Agricultura (Cepagri).

Assim como ocorreu com outros pesquisadores de diversas áreas, a pandemia do coronavírus chamou a atenção dela e seus orientandos , que passaram a reunir os dados fornecidos pelo Ministério da Saúde no formato CSV, “Comma-Separated Values”, no qual as informações numéricas são disponibilizadas em planilhas e separadas por vírgulas. Neste formato, é possível fazer o processamento por softwares específicos, o que facilita o trabalho de analisar e tirar conclusões.

Porém, ela conta que o sinal de alerta surgiu quando, no dia 18 de março, os dados pararam de ser disponibilizados pelo Ministério nesse formato com a justificativa de que o sistema de divulgação seria aperfeiçoado. “Houve esse apagão de dados, a gente não conseguiu ter acesso às planilhas, e o Ministério da Saúde começou a divulgar diariamente os casos confirmados nos estados por meio de boletins em que a informação vem no corpo do texto, o que não é o ideal para quem quer fazer o processamento de forma automática”, relata a professora. Atualmente, o Ministério voltou a disponibilizar em seu site os dados nacionais e dos estados no formato CSV, mas a preocupação em ficar novamente sem o acesso fez com que a equipe se mobilizasse.

Impossibilitados de coletar os dados em uma única fonte, o grupo começou a buscar pelas informações de cada estado. A conclusão foi de que existe uma grande discrepância na forma com que cada unidade da federação coleta e divulga seus dados. Por ser um tipo de doença de notificação compulsória, todos os casos confirmados chegam ao Ministério da Saúde. Porém, a grande preocupação é o atraso com que esses dados podem chegar devido a essas diferenças, o que pode prejudicar a adoção de medidas necessárias. “Alguns estados divulgam as informações apenas pelo Twitter, outros divulgam boletins epidemiológicos em arquivo PDF, que é difícil de ler pela máquina. Outros ainda são divulgados apenas pelo portal G1, nós não conseguimos nem chegar na informação fornecida diretamente pela secretaria de saúde do estado”, explica Paula.

foto mostra mão com luvas segurando caixas de testes utilizados para detectar a Covid 19
Segundo Paula, discrepância nos dados pode atrasar adoção de medidas como a testagem da população

A saída encontrada foi não só para o trabalho do grupo, mas também pensando em facilitar o trabalho de outros pesquisadores, foi criar uma nova base de dados unificada. Nela, a equipe disponibiliza dados atualizados todos os dias que mostram não apenas os números de casos confirmados da Covid-19 no país e entre os estados, mas também a série história de cada local. Paula comenta que, a partir disso, eles já conseguem observar aspectos relevantes sobre a evolução da pandemia entre os estados, como uma similaridade entre os números registrados no Ceará e no Distrito Federal.

A base de dados pode ser acessada por este link e seus arquivos estão disponíveis a todos os interessados. Com a experiência, a professora destaca que a pandemia é uma oportunidade de chamar a atenção das autoridades de saúde também para a importância da otimização e clareza dos dados que são divulgados sobre a doença. “Os nossos processos de reportagem de informação são muito ruins, o Brasil não tem um grande sistema unificado que permite que a informação flua rapidamente dos municípios para os estados e para o país como um todo. Isso é bastante ruim para a tomada de decisões rápidas, como é a necessidade em uma pandemia dessas”, analisa Paula.

Imagem de capa

montagem com fotos mostra cena de uma coletiva de imprensa onde estão os ministros de ciência e tecnologia, marcos pontes, e saúde, henrique mandetta, e ao lado uma mão mexendo em caixas de testes para a covid 19 clique enter para acessar
Pesquisadores da Unicamp comentam forma com que dados sobre o coronavírus são divulgados e analisados

Fonte: Unicamp

Grupo de cientistas monitora covid-19 em tempo real com base na ciência de dados

Domingos Alves comenta que é prematuro afirmar que pico do coronavírus, em São Paulo, será em dez dias e que medidas restritivas ainda são extremamente necessárias

Há no Brasil um grupo de cientistas independentes e voluntários (físicos, matemáticos, biólogos e médicos) que busca avaliar a evolução da covid-19 por meio da ciência de dados. A análise é feita através de modelos matemáticos típicos de surtos de epidemia, tais como a modelagem, já usada ao tratar da dengue e da própria Sars (Síndrome Respiratória Aguda Grave). De acordo com o professor Domingos Alves, do Laboratório de Inteligência em Saúde (LIS) da Faculdade de Medicina de Ribeirão Preto da USP, em entrevista ao Jornal da USP no Ar, o objetivo da equipe é traçar o melhor cenário possível de previsão dos casos. O grupo, inclusive, criou um site para acompanhamento do monitoramento dos dados obtidos e de suas análises.

As ferramentas usadas são adaptações de outros instrumentos empregados ao redor do mundo, pois o cenário encontrado em cada país varia e, pensando no Brasil, isso não é diferente. O professor inclusive cita que é necessário trabalhar com focos mais específicos de modelagem, olhando a ação do vírus em localidades mais representativas, principalmente em cidades em que a doença já se alastrou. Dessa forma, será possível monitorar a disseminação da doença em cada município, ajudando na tomada de  decisão pelos gestores locais.

Objetivo da equipe é traçar o melhor cenário possível de previsão dos casos – Foto: Cecília Bastos/USP Imagens
Alves aproveita para alertar o cuidado que a mídia e órgãos informativos devem ter ao divulgar dados sobre a evolução da doença, citando o exemplo de uma matéria que alegava que a cidade de São Paulo havia diminuído a curva da incidência do vírus (entre os dias 23 e 25 de março) devido às medidas de isolamento social. “O que as pessoas estavam vendo era uma flutuação dos dados, e essas flutuações são comuns durante uma epidemia”, explica o professor.

Algumas pessoas comentam que o pico da doença em São Paulo será observado em aproximadamente dez dias, uma afirmação que é, de acordo com o professor Domingos Alves, prematura. Ele comenta que ainda estamos no tempo de ascensão dos casos e que provavelmente não atingiremos o ápice em dez dias. Por isso, é necessário que a população mantenha o isolamento social, e que talvez seja necessário um prazo maior de manutenção dessa medida.

Saiba mais ouvindo a entrevista na íntegra.

Fonte: Jornal da USP

A Contribuição da Ciência da Informação para a LGPD

Texto por Camila Denículi Vila Verde

Trabalho com gestão de informação há mais de 15 anos. Tenho muitos artigos e materiais publicados que falam sobre a importância deste ativo dentro das empresas e como que há perdas e ganhos de desempenho e resultados associados aos processos ineficientes ou eficientes de gestão destes pelas empresas. Investir em uma gestão de informação eficiente é fundamental!

Em agosto deste ano entra em vigor no Brasil a LGPD, Lei Geral de Proteção de Dados Pessoais, lei muito necessária para todo cidadão brasileiro e também para empresas manterem suas relações comerciais com outros países do mundo, especialmente da Europa. Resumindo: É PRECISO FAZER ACONTECER.

O texto da lei está aqui neste link: http://www.planalto.gov.br/ccivil_03/_Ato2015-2018/2018/Lei/L13709compilado.htm

Destaco alguns pontos:

  • A coleta e tratamento de dados pessoais deverá ser coerente com o serviço a ser oferecido pela empresa, que passa a ser a controladora destes dados, tendo a responsabilidade de garantir a segurança, privacidade, integridade e atualidade deles.

  • O Titular dos dados (ou seja, as pessoas sobre as quais os dados dizem respeito, como eu e você) deve expressar consentimento explícito e inequívoco para coleta e tratamento de seus dados, entendendo o que será coletado, como será tratado, para qual finalidade serão usados e se haverá e como será feito compartilhamento com terceiros. O titular deverá ter fácil acesso para estes dados, possibilidade de corrigi-los e atualizá-los;

  • Os dados deverão ser tratados de acordo com sua classificação: Há dados sensíveis (que falam sobre religião, etnia etc) e dados sobre crianças e adolescentes que deverão ter tratamento especial e, no caso deste último, somente poderá ser coletado e tratado com consentimento dos pais;

  • Os dados pessoais deverão ser apagados após finalização da prestação do serviço (operação), observando os casos onde há requisitos legais para manutenção destes por certa temporalidade;

  • Esta lei será fiscalizada por uma agência nacional reguladora, como a ANATEL, ANEEL, etc. O nome dela será ANPD (Autoridade Nacional de Proteção de Dados);

  • Em caso de vazamento de dados, a empresa deverá notificar os titulares e a ANPD sobre o incidente e comprovar que possui medidas de prevenção e contenção;

  • As empresas deverão ter em seu time um encarregado, uma PESSOA responsável pela privacidade de dados pessoais, o ENCARREGADO ou DPO (Data Protection Officer). O nome dessa pessoa deverá ser registrado junto a ANPD.

Parecem requisitos óbvios e simples. Há algumas outras leis e práticas que já abordam esta questão da privacidade, inclusive o marco civil da Internet no Brasil, mas, a questão agora é que, nos casos de descumprimento e incidentes, a empresa está sujeita a uma multa de 2% de seu faturamento, com limite de R$50.000.000,00 por ocorrência. Além deste prejuízo material existe aquele intangível de perda de confiança e má reputação, que pode causar um dano ainda maior para a empresa, muitas vezes, irreversível.

Estes requisitos óbvios e simples só são possíveis de serem atendidos se houver ANTES DE TUDO uma gestão de informação estruturada dentro da empresa. Aí que entra a Ciência da Informação, com suas metodologias de tratamento e gestão da informação que são FUNDAMENTAIS para qualquer empresa atender a LGPD:

  • Mapeamento dos recursos de informação da empresa: quais são, onde estão, quais deles tratam dados pessoais;

  • Mapeamento dos processos de uso destes recursos: Como são adquiridos, como tramitam, onde são armazenados;

  • Classificação dos recursos de informação (Sigiloso, público, corporativo etc.);

  • Definição de políticas de acesso a estes recursos de informação (Quem pode acessar);

  • Monitoramento dos processos de acesso e uso dos recursos de informação (Governança);

  • Definição de meta-dados de cadastro e indexação de dados pessoais adequados à operação necessária (Minimização);

  • Coleta, arquivamento, tramitação e temporalidade de termos de consentimento;

  • Temporalidade de guarda de dados pessoais e;Demais técnicas e metodologias de organização, ordenação, triagem, curadoria, agrupamento, disseminação e acesso da informação estudadas e implementadas desde sempre pela Ciência da Informação.

A Ciência da Informação possui conhecimento chave para que a empresa estruture seus processos de gestão da informação, conheça seu acervo informacional e possa, junto com as demais áreas necessárias (Jurídica, TI, operação etc), estruturar um plano de atendimento a LGPD e seus requisitos de privacidade de dados.

Não existe uma regra sobre a formação mais adequada para um DPO (Data Protector Officer), o encarregado pela privacidade de dados dentro das empresas. Entende-se que esse profissional tenha o perfil integrador e seja capaz de extrair de cada área do conhecimento as ações necessárias em prol da privacidade de dados. Deve ser ainda um profissional com ampla visão sobre os recursos de informação e seus fluxos, com excelente relacionamento interpessoal, para se reportar a alta direção e a ANPD. O Profissional da informação está qualificado e apto para contribuir significativamente nesta função.

Fonte: Linkedin

I Congresso: “Os Desafios do Controle da Administração Pública na Lei Geral de Proteção de Dados Pessoais”

Objetivo: O evento objetiva auxiliar os órgãos de controle interno e externo na implementação da Lei Geral de Proteção de Dados Pessoais, debatendo os desafios do controle da Administração Pública ao abordar a regulamentação da lei, as formas de prevenção de vazamento de dados, as boas práticas, a aplicação de sanções e outras questões relevantes trazidas pela LGPD.

Apoio Institucional: OAB Nacional – Comissão Especial de Proteção de Dados

Público alvo: Servidores públicos e assessores do TCMSP, dos Poderes Legislativo, Executivo e Judiciário, advogados, estudantes e interessados em geral pelo tema.

Organizadores: Silvio Gabriel Serrano Nunes e Bruna Borghetti Camara Ferreira Rosa

Data: dias 16 e 17 de Abril de 2020
Horário das 9h às 17h

Local: Auditório da Escola Superior do TCMSP
Av. Prof. Ascendino Reis, 1130 – Vila Clementino – São Paulo – SP

Inscrições: https://webgiz.aix.com.br/webgiztcmsp/index.php?option=com_aixinteressado&view=interesse

Programação:

I Congresso: “Os Desafios do Controle da Administração Pública na Lei Geral de Proteção de Dados Pessoais”

Organizadores: Silvio Gabriel Serrano Nunes e Bruna Borghetti Camara Ferreira Rosa

Objetivos: O evento objetiva auxiliar os órgãos de controle interno e externo na implementação da Lei Geral de Proteção de Dados Pessoais, debatendo os desafios do controle da Administração Pública ao abordar a regulamentação da lei, as formas de prevenção de vazamento de dados, as boas práticas, a aplicação de sanções e outras questões relevantes trazidas pela LGPD.

Dia 16/04 (quinta-feira)

*Abertura do Congresso – 9h:

João Antonio da Silva Filho
Presidente do Tribunal de Contas do Município de São Paulo.

* Conferência de abertura – 10h:
José Roberto Pimenta Oliveira
Mestre e Doutor em Direito Administrativo pela PUC/SP; professor na PUC/SP; Presidente do IDASAN. Procurador Regional da República na 1ªRegião. Presidente do Instituto de Direito Administrativo Sancionador – IDASAN

* Painel 1 – 10h30:

Experiência internacional sobre Controle: Sistema de enforcement na LGPD

Presidente de Mesa: Dinorá Adelaide Musetti Grotti
Mestre e Doutora em Direito Administrativo pela PUC/SP; professora da PUC/SP.

Silvio Gabriel Serrano Nunes
Doutor e Mestre em Filosofia pela USP e Assessor Jurídico no Tribunal de Contas do Município de São Paulo.

Bruna Borghetti Camara Ferreira Rosa
Mestre e Doutoranda em Direito Administrativo pela PUC/SP, pós-graduada em Gestão Pública pela FGV/SP; Integrante da Comissão Especial de Relações com a Câmara Municipal de São Paulo da OAB/SP.

Bruno Bioni
Mestre e Doutorando em Direito pela USP. Foi study visitor do European Data Protection Board/EDPB e do Departamento de Proteção de Dados Pessoais do Conselho da Europa. É pesquisador da Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade/LAVITS e Fundador do Data Privacy Brasil.

* Painel 2 – 11h30:

Os desafios da implementação da LGPD

Presidente de Mesa:
Wassila Abbud
Mestre e Doutoranda em Direito Administrativo pela PUC/SP.

Carolina Zancaner Zockun
Mestre e Doutora em Direito Administrativo pela PUC/SP; professora na PUC/SP. Pós-Doutora em Direitos humanos pela Universidade de Coimbra e Procuradora da Fazenda Nacional.

Alexis Vargas
Secretário Executivo de Gestão e Projetos Estratégicos da SGM, Mestre e Doutor em Direito Constitucional pela PUC/SP.

Luiz Fernando Prudente do Amaral
Mestre e Doutor em Direito pela PUC/SP, Especialista em Direito Público pela EPM e em Direito Penal Econômico e Europeu pela Universidade de Coimbra. Professor Titular da FAAP. Chefe de Gabinete da Controladoria Geral do Município.

* Painel 3 – 14h:

Competência da Autoridade Nacional na LGPD
Presidente de Mesa: Gabriel Moretti
Mestrando em Direito Administrativo pela PUC/SP.

Flávio Unes
Mestre e Doutor em Direito Administrativo pela UFMG. Coordenador do Mestrado Profissional do IDP-SP. Presidente da Comissão Especial de Proteção de Dados do Conselho Federal da Ordem dos Advogados do Brasil.

Renato Gonçalves
Mestre em Direito pela PUC/SP e Doutorando pela Faculdade de Direito de Lisboa.

 

* Painel 4 – 15h30: Novas Perspectivas para o Direito Administrativo a partir da LGPD

Presidente de Mesa:
Fernanda Ghiuro Valentini Fritoli 
Mestre em Direito Constitucional e Doutoranda em Direito Administrativo pela PUC/SP.

Clovis Beznos
Mestre e Doutor em Direito do Estado pela PUC/SP. Professor da PUC/SP. Presidente do Instituto Brasileiro de Direito do Estado – IBDE

Márcio Cammarosano
Mestre e Doutor em Direito do Estado pela PUC/SP.

 

Dia 17/04 (sexta-feira)

* Painel 1 – 9h: Controle Interno e Controle Externo na LGPD

Presidente de Mesa: Lucas Galvão de Britto
Mestre e Doutor em Direito pela PUC/SP, Professor do IBET e COGEAE – PUC/SP.

Marcos Augusto Perez
Professor Doutor de Direito Administrativo da Faculdade de Direito da Universidade de São Paulo. Mestre, Doutor e Livre-Docente em Direito Público e do Estado pela Faculdade de Direito da Universidade de São Paulo.

Antônio Rodrigo Machado
Mestre em Direito Administrativo; professor no IDP.

Silvio Guidi
Mestre e Doutorando em Direito Administrativo pela PUC/SP.

 

* Painel 2 – 11h30: Compliance e LGPD

Presidente de Mesa: Isabela Eid
Mestre em Direito Administrativo pela PUC/SP.

Tiago Neves Furtado
Pós Graduado pelo IBMEC e pela FGV. Certified Information Privacy Professional/Europe – CIPP-E pela IAPP; EXIN Privacy and Data Protection Essentials (PDPE) e EXIN Privacy and Data Protection Foundation (PDPF).

Fábio Santana
Mestre em Direito Constitucional pela UFF, e Doutorando em Direito Administrativo pela PUC, Pós-graduado em Giustizia Costituzionale pela Università di Pisa/Itália. Procurador do Município de São Paulo.

Raphael de Matos Cardoso
Mestre em Direito Administrativo pela PUC/SP e Doutorando em Direito do Estado pela USP. Advogado. Membro da Comissão Especial de Combate à Corrupção e Improbidade Administrativa da OABSP

 

* Painel 3 – 14h00: Direito Sancionatório e LGPD

Presidente de Mesa: Marcela Santos
Mestre em Direito pela USP.

Daniel Ferreira
Mestre e Doutor em Direito Administrativo.

Francisco Zardo
Mestre em Direito do Estado pela UFPR; Professor em Direito Administrativo na Universidade Positivo, Unibrasil e FIEP; Presidente da Comissão de Gestão Pública, Transparências e Controle da Administração da OAB/PR; Vice-Presidente do IDASAN.

Ricardo Marcondes Martins
Mestre e Doutor em Direito Administrativo pela PUC/SP; professor na PUC/SP. Procurador do Município de São Paulo.

 

*Painel 4 – 15h30: LGPD e Administração Pública

Presidente de Mesa: Georghio Alessandro Tomelin
Mestre e Doutor em Direito do Estado pela USP, Advogado e Consultor em Direito Público.

Vitor Hugo das Dores Freitas
Mestre em Direito. Advogado.

Maurício Antonio Tamer
Mestre e Doutorando em Direito. Advogado.

Luis Eduardo Patrone Regules
Mestre pela PUCSP. Advogado.

 

*Conferência de Encerramento – 16h
Maurício Zockun
Mestre, Doutor e Livre-Docente em Direito Administrativo pela PUC/SP; professor da PUC/SP e Presidente do IBDA. Presidente do Instituto Brasileiro de Direito Administrativo – IBDA

Mais informaçõeshttps://escoladecontas.tcm.sp.gov.br/palestras/evento/1175/17/i-congresso-os-desafios-do-controle-da-administracao-publica-na-lei-geral-de-protecao-de-dados-pessoais?filter_reset=1

Novo curso da Fiocruz trata da gestão e compartilhamento de dados abertos de pesquisa

Texto por Flávia Lobato (Campus Virtual Fiocruz)

O compartilhamento de dados fortalece cada vez mais a produção e a disseminação do conhecimento. Pela importância do tema, a Fundação Oswaldo Cruz (Fiocruz) lança o curso Dados Abertos — que se tornaram um dos ativos mais importantes na sociedade contemporânea. A iniciativa faz parte da Formação Modular em Ciência Aberta, que oferece cursos gratuitos, na modalidade à distância (EAD), que estão disponíveis a todos os interessados.

O novo curso, Dados Abertos, é composto por seis aulas online (totalizando 10h). Os participantes vão aprender o que são dados abertos, sua importância no campo científico, e como utilizá-los: quando abrir, por que e quais os princípios a observar (saiba mais e inscreva-se aqui). O curso é coordenado pelas doutoras em Ciência da Informação, Vanessa Jorge e Anne Clinio.

Vanessa comenta que algumas frentes da Ciência Aberta já estão mais maduras, como o acesso aberto e o uso de softwares abertos. Atualmente, os dados abertos estão no centro da discussão do movimento. “Estamos mudando para uma nova cultura do fazer científico e esta é a dimensão em destaque, agora. Isso porque há muitas possibilidades de uso e apropriações dos dados abertos por diversas áreas da sociedade. Na nossa área, particularmente, o debate engloba diferentes questões: desde privacidade, acesso à informação, governo aberto e transparência pública até os avanços em pesquisa e o combate a emergências em saúde pública, por exemplo”, afirma ela, que atua na Coordenação de Informação e Comunicação da Fiocruz.

Anne, por sua vez, lembra que todo pesquisador faz gestão de dados, mas que nem sempre tem uma visão sobre sua ampla reutilização a médio e longo prazo. “Um dos nossos objetivos é mostrar o ciclo completo da gestão de dados num projeto de pesquisa, para que os alunos saibam como atuar em função de cada etapa — do planejamento à abertura e compartilhamento futuro”, diz. Anne lembra, ainda, que apresentar o Plano de Gestão de Dados tem sido uma exigência dos órgãos de financiamento.

Gestão, abertura e compartilhamento de dados na prática

Entre os diferenciais deste novo curso da Fiocruz está sua aplicação prática no campo da saúde, conta Vanessa. “Nós apresentamos uma série de iniciativas, instituições, incluindo os financiadores e revistas científicas que estão trabalhando com dados abertos. E trazemos também várias ferramentas que vêm sendo utilizadas. O material certamente contribui bastante para o desenvolvimento de um ecossistema voltado à abertura de dados de pesquisa no Brasil e para pensarmos nos desafios para que esta cultura avance”, conclui.

Saiba mais sobre o curso e inscreva-se aqui!

  • Aula 1 – Gestão, compartilhamento e abertura de dados para pesquisa: uma nova cultura no fazer científico (Anne Clinio e Vanessa Arruda – Fiocruz)
  • Aula 2 – Gestão “ativa” de dados: uma mudança cultural (Anne Clinio e Vanessa Arruda – Fiocruz)
  • Aula 3 – Dados e proteção jurídica (Allan Rocha de Souza – Universidade Federal Rural do Rio de Janeiro)
  • Aula 4 – Plano de Gestão de Dados (Pedro Príncipe – Universidade do Minho e Viviane Veiga – Fiocruz)
  • Aula 5 – FAIR: dos princípios à prática (Patricia Henning – Universidade Federal do Estado do Rio de Janeiro e Luis Olavo Bonino – Go-Fair e Leiden University Medical Centre)
  • Aula 6 – Políticas dos financiadores, requisitos das revistas científicas e repositórios de dados em saúde (Hataânderson dos Santos – Fiocruz, Jaqueline Gomes – Fiocruz, Maria de Fátima Moreira Martins – Fiocruz, Vanessa de Arruda Jorge – Fiocruz)

Conheça a Formação Modular em Ciência Aberta

Formação Modular em Ciência Aberta é uma realização da Vice-presidência de Educação, Informação e Comunicação (VPEIC/Fiocruz) por meio do Campus Virtual Fiocruz. É composta por quatro séries e oito microcursos. A iniciativa é uma parceria entre a Coordenação de Informação e Comunicação da Fiocruz, a Escola Corporativa Fiocruz, a Universidade do Minho (Portugal) e o Campus Virtual Fiocruz.

Todos os microcursos são oferecidos na modalidade de educação à distância (EAD). Os inscritos podem acessar as aulas online, quando e de onde quiserem, gratuitamente. Os cursos são independentes entre si. Ou seja: não é preciso cursar um para se inscrever em outro. Mas, na Fiocruz entendemos que quanto mais completa a formação, melhor. A cada curso realizado, os alunos passam por uma avaliação online e recebem certificados de conclusão de acordo com critérios de aprovação.

Séries e cursos já lançados

Série 1: O que é ciência aberta? | Panorama histórico da ciência aberta

Série 2: Propriedade intelectual aplicada à ciência aberta | Direito de acesso à informação e proteção de dados pessoais

Série 3: Acesso aberto | Dados abertos

Fonte: CAMPUS VIRTUAL FIOCRUZ

Fapesp lança Rede de Repositórios de Dados Científicos

Plataforma permite acesso aos dados gerados em pesquisas científicas de instituições de São Paulo e amplia visibilidade a estudos

Texto por Portal do Governo

Plataforma permite busca por instituição, autor, assunto, ano ou palavras-chave
Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), com apoio de universidades paulistas, desenvolveu uma ferramenta que permite acessar dados associados às pesquisas realizadas em todas as áreas do conhecimento no Estado de São Paulo. A Rede de Repositórios de Dados Científicos foi lançada em 16 de dezembro de 2019 e disponibiliza dados gerados em pesquisas científicas, independentemente de sua publicação em artigos científicos.

A plataforma envolve as seis universidades públicas do Estado de São Paulo: Universidade Estadual de Campinas (Unicamp), Universidade de São Paulo (USP), Universidade Estadual Paulista (Unesp), Universidade Federal de São Carlos (UFSCar), Universidade Federal do ABC (UFABC) e Universidade Federal de São Paulo (Unifesp); além do Instituto Tecnológico de Aeronáutica (ITA) e a Embrapa Informática Agropecuária (CNPTIA/Embrapa).

O portal foi desenvolvido pela USP e permite busca por instituição, autor, assunto, ano ou palavras-chave. A primeira versão da Rede disponibiliza por exemplo um banco de dados contendo toda a rede de drenagem da hidrografia brasileira sob a forma de grafos e um repositório de imagens de sintomas de doenças de plantas disponibilizado pelo CNPTIA-Embrapa.

Para o pesquisador que gerou os dados, a Rede de Repositórios aumenta a visibilidade da sua pesquisa, permitindo o seu compartilhamento e reuso em novas pesquisas.

“A ciência, entendida como um bem público, exige comunicação e o acesso aos resultados de projetos de pesquisas deve ser pleno, sem restrições, para que privilégios não sejam criados. A Rede de Repositórios de Dados Científicos do Estado de São Paulo vai dar conhecimento e acesso público não só aos pesquisadores, mas também para o contribuinte paulista que paga para que pesquisas sejam realizadas no Estado de São Paulo”, disse o presidente da Fapesp, Marco Antonio Zago.

Visibilidade e registro

O diretor científico da Fapesp, Carlos Henrique de Brito Cruz, afirma que a Rede é mais uma ação relacionada à Ciência Aberta (Open Science, na versão em inglês), que tem o objetivo de ampliar a divulgação do conhecimento por meio de plataformas digitais.

“Iniciativas que buscam facilitar a integração e a colaboração entre pesquisadores têm dois resultados principais: o melhor progresso da ciência e a maior eficiência no uso de recursos que custeiam a pesquisa. A nova rede tem esse intuito. É uma iniciativa pioneira e bem sintonizada com as práticas de Open Science. Ela vai dar um grande impulso para o desenvolvimento científico do Estado de São Paulo”, afirma Cruz.

Para a integrante da Coordenação Adjunta da Fapesp para o Programa de Pesquisa em eScience e Data Science, Claudia Bauzer Medeiros, a iniciativa é pioneira na América Latina e amplia a visibilidade da ciência no Estado de São Paulo.

“Um Plano de Gestão de Dados faz parte das boas práticas de pesquisa, com o planejamento, desde o início de uma proposta, sobre quais dados serão produzidos e como serão gerenciados, compartilhados e preservados. Essa iniciativa é um avanço enorme. Evita que muitos dados importantes, seja pela qualidade, caráter histórico ou raridade, se percam”, diz Medeiros, que também é professora do Instituto de Computação da Universidade Estadual de Campinas (Unicamp).

Fonte: Portal do Governo

Dia do Bibliotecário 2020 SISEB – Conversando sobre Lei Geral de Proteção de Dados

QUANDO: 12 de março de 2020 – 09:30 – 12:30

ONDE: Biblioteca de São Paulo

Av. Cruzeiro do Sul 2630 – Carandiru, São Paulo – SP

CUSTO: Grátis

CONTATO:  SisEB – Sistema Estadual de Bibliotecas Públicas de São Paulo

(11) 3155-5444

Email

DIA DO BIBLIOTECÁRIO 2020

Inscreva-se e participe da programação comemorativa.

INSCRIÇÕES, CLIQUE AQUI.

Ser bibliotecário é ser também um leitor: leitor de livros e de seu entorno. É ser o interlocutor da comunidade e ter plena consciência da função política, social e educativa da biblioteca pública.” Notas de Biblioteca 6 

PROGRAMA 

  • 9h às 9h30: Credenciamento e café de boas-vindas 

  • 9h30 às 9h40: Abertura 

  • 9h40 às 10h: Intervenção artística 

  • 10h às 12h15: Conversando sobre 

  • 12h15 às 12h30: Sorteio de prêmios 

CONVERSANDO SOBRE LEI GERAL DE PROTEÇÃO DE DADOS com Fabiano Passos, Flavia Penido e Gisela Scheinpflug. Mediação: Charlley Luz 

INTERVENÇÃO POÉTICA – Cortejo de Leitura: Escritureiras  

Fabiano Passos é doutorando em Ciência e Tecnologia da Informação, mestre em Science – BPMS e em Sistemas e Gestão, e especialista em Processos e Riscos. É professor da pós–graduação da FESPSP em tecnologia e segurança da informação e gerente de Tecnologia na Provider IT. Foi diretor e gerente na área de Tecnologia da Informação em diversas organizações, como Prefeitura de Cotia (SP), COHAB–SP, Tractus Knowlegde, VRG Linhas Aéreas, General Motors Inc. e EMS Sigma Pharma. É consultor em Lei Geral de Proteção de Dados. 

Flavia Penido é advogada, especialista direito tributário, com escritório voltado para gestão de inadimplentes fiscais. Nos últimos anos, em decorrência de sua atuação nas redes sociais, focou seus estudos no direito digital, aplicado ao marketing e ao dano à imagem das marcas. Acredita que numa boa interlocução entre advogados e publicitários para que as boas práticas de direito se sedimentem na internet.  

Gisela Scheinpflug é mestre em Ciência da Informação pela UnB, pós-graduada em Gestão de Empresas pela UFRGS, bacharel em Informática pela PUC-RS, mediadora e conciliadora no Instituto dos Advogados de São Paulo e estudante de Direito na Uninove. Desempenhou atividades em tecnologia, gestão e empreendedorismo por mais de 20 anos. Atualmente trabalha como consultora empresarial e também em projetos relacionados à Lei Geral de Proteção de Dados. 

Charlley Luz é publicitário, bacharel em Arquivologia pela UFRGS, pós-graduado em Gerência de Serviços de Informação pela FESPSP e mestre em Ciência da Informação pela ECA-USP. É autor dos livros Arquivologia 2.0, Primitivos Digitais e Ontologia Digital Arquivística. Coordenador dos cursos de pós-graduação em Ciências da Informação da FESPSP e professor convidado na ESPM. 

Grupo Escritureiros – surgiu quando o Instituto Brasileiro de Estudos e Apoio Comunitário (IBEAC) chegou na região de Parelheiros, zona sul de São Paulo, para desenvolver trabalhos e projetos sociais com a comunidade moradora nos bairros da Barragem, Colônia e Nova América. Em 2009, teve início o projeto Pílulas de Leitura, onde quinze adolescentes e jovens receberam formação em mediação de leitura, jornal mural e escrita criativa. Quando já se reconheciam como grupo que se reunia semanalmente, se autodenominaram Escritureiros. Em 2010, os adolescentes e jovens, fundaram a Biblioteca Comunitária Caminhos da Leitura, no bairro da Colônia em Parelheiros, para desenvolver atividades voltadas à cultura e ao incentivo literário. Além do convívio com a leitura, a música estava bem presente na vida desses jovens. Atualmente o Cortejos de Leitura é um produto de geração de renda para os participantes, que fazem apresentações na comunidade de Parelheiros e em outras localidades a partir do convite de parceiros.

CONVIDADOS ESPECIAIS: Bibliotecários, profissionais de bibliotecas e estudantes. 

Inscrições gratuitas. Vagas limitadas! 

Mais informações: (11) 3155-5444 • siseb@spleituras.org • www.siseb.sp.gov.br 

Importante: Condições especiais de atendimento, como tradução em libras, devem ser informadas até cinco dias antes da atividade. 

12 de março de 2020 das 9h30 às 12h30 

SÃO PAULO

Biblioteca de São Paulo

Av. Cruzeiro do Sul, 2.630 – Santana 

Mais informações: http://siseb.sp.gov.br/evento/dia-do-bibliotecario-conversando-sobre-lei-geral-de-protecao-de-dados-sao-paulo/?instance_id=961

Inteligência artificial e proteção de dados: realidades incompatíveis?

Num momento em que a Inteligência Artificial (IA) parece abrir portas a um universo inimaginável de potencialidades, defender a restrição da sua utilização por motivos relacionados com a proteção de dados pessoais pode parecer algo supérfluo, levando a que se coloque a seguinte questão: podem estas duas realidades ser compatíveis?

Num momento em que a Inteligência Artificial (IA) parece abrir portas a um universo inimaginável de potencialidades, defender a restrição da sua utilização por motivos relacionados com a proteção de dados pessoais pode parecer algo supérfluo, levando a que se coloque a seguinte questão: podem estas duas realidades ser compatíveis?

Alguns especialistas no ramo tecnológico e digital têm vindo a público contestar a decisão da Comissão Nacional de Proteção de Dados (CNPD) que, recentemente, levantou várias reservas sobre a utilização da AI nos sistemas de videovigilância pelas Câmaras Municipais de Leiria e Portimão.

Num argumento recorrente, mas vago e impreciso, tais especialistas referem que a utilização da AI é inevitável e que a proteção de dados pessoais se encontra sobrevalorizada.

Os próprios autarcas parecem concordar com os especialistas, referindo que «a Lei tem de adaptar-se às condições tecnológicas».

Todavia, tanto os especialistas como os autarcas falham em reconhecer que, por um lado a tecnologia não é uma realidade que viva isolada das demais realidades, e que esta, como qualquer outra construção humana, deve adaptar-se à Lei e não o contrário.

Aliás, permitir que a tecnologia pudesse valer sem que fosse regulamentada, equivaleria a defender-se a existência de uma autêntica arbitrariedade. Acresce, não se vislumbra qualquer razão que justifique excepcionar-se a tecnologia da aplicação e da conformidade à Lei.

Num Estado de Direito Democrático é imperativo que a Lei regule as realidades humanas, e com a necessária ênfase, devemos sublinhar que o problema não está na tecnologia em si, mas na forma como esta é concretamente empregue.

A IA possui diversas potencialidades, algumas das quais poderão vir a contribuir efetivamente para a melhoria da nossa qualidade de vida.

No entanto, há que reconhecer que esta tecnologia possui igualmente características que podem ser verdadeiramente nocivas. Se quisermos estabelecer um paralelo para este argumento, pensemos na energia nuclear.

A energia nuclear tanto pode ser utilizada para produzir energia elétrica e diminuir o uso de combustíveis fósseis, como pode ser utilizada para fabrico de um míssil que poderá ter como consequência a morte de milhões de pessoas.

Não sendo levado ao extremo de afirmar que a IA e a energia nuclear têm consequências similares, este paralelo serve apenas para ilustrar que é a forma como se emprega a tecnologia que dita a sua compatibilidade ou incompatibilidade com os direitos individuais.

Isto significa que, por princípio, a AI não é incompatível com a proteção de dados pessoais (que conforma igualmente um direito fundamental dos indivíduos).

Porém, a forma como se pretende utilizar a AI nos casos concretos apresentados pelas Câmaras Municipais de Leiria e Portimão, onde se verifica uma completa desconsideração pelos direitos e liberdades individuais, faz com que o seu modo de emprego seja totalmente incompatível com o direito à privacidade e o direito à proteção dos dados pessoais.

O futuro é certamente inevitável, mas desejar o futuro não é tudo, é preciso pensá-lo!

Diogo Duarte | Consultor Internacional

Fonte: BARLAVENTO

Bruxelas define regras para proteger dados pessoais em inteligência artificial

O Comité Europeu para a Proteção de Dados avisa que “o uso de dados biométricos e, em particular, o reconhecimento facial acarreta riscos” para a privacidade dos utilizadores.

AComissão Europeia vai definir “em breve” regras para a inteligência artificial na União Europeia (UE), visando uma “abordagem coordenada” entre os Estados-membros e que tenha em conta a proteção dos dados dos cidadãos, informou fonte comunitária.

“Com base no trabalho realizado nos últimos anos, a Comissão apresentará em breve um plano para uma abordagem europeia coordenada da inteligência artificial, conforme anunciado pela presidente [do executivo comunitário, Ursula von der Leyen] nas suas orientações políticas”, indica fonte oficial desta instituição europeia em resposta escrita enviada à agência Lusa.

De acordo com a mesma fonte, o objetivo das novas regras é fomentar “avanços científicos, preservar a liderança das empresas da UE, melhorar a vida de todos os cidadãos europeus e ainda facilitar o diagnóstico e os cuidados de saúde e aumentar a eficiência na agricultura”.

Ainda assim, a salvaguarda dos dados dos cidadãos será uma matéria que a Comissão de Ursula von der Leyen terá de acautelar, nomeadamente no âmbito do Regulamento Geral sobre a Proteção de Dados, criado em maio de 2018 e que regula a privacidade e o uso destas informações pessoais dentro da UE.

No documento com as orientações políticas do seu executivo comunitário, que tomou posse a 1 de dezembro, Von der Leyen comprometeu-se a, nos seus primeiros cem dias no cargo, apresentar esta “legislação para uma abordagem europeia coordenada sobre as consequências éticas e para os humanos da inteligência artificial”, no âmbito da prioridade que designou como “Europa adequada à era digital”.

No mesmo texto, a responsável notou que “os dados e a inteligência artificial são os ingredientes da inovação”.

Porém, “para usufruir desse potencial, precisamos de encontrar um caminho europeu, equilibrando o fluxo e a elevada utilização dos dados e preservando altos padrões de privacidade, proteção, segurança e ética”, destacou.

O Comité Europeu para a Proteção de Dados (CEPD), um organismo europeu independente que contribui para a aplicação das regras sobre esta matéria na UE, tem vindo a acompanhar o processamento das informações pessoais em equipamentos inteligentes.

Em julho de 2019, esta entidade – que aconselha a Comissão Europeia sobre legislação em preparação – lançou inclusive uma consulta pública relativa à utilização de dados em dispositivos de vídeo, alertando para problemas no reconhecimento facial em equipamentos como telemóveis.

No documento publicado no seu site e consultado pela Lusa, CEPD avisa que “o uso de dados biométricos e, em particular, o reconhecimento facial acarreta riscos” para a privacidade dos utilizadores.

Por isso, para este organismo consultivo, “é crucial que o recurso a essas tecnologias ocorra com o devido respeito aos princípios de legalidade, necessidade, proporcionalidade e minimização da [transmissão de] dados, conforme estabelecido no Regulamento Geral sobre a Proteção de Dados”.

“Enquanto o uso dessas tecnologias possa ser visto como particularmente eficaz, os utilizadores devem, em primeiro lugar, avaliar o seu impacto nos direitos e liberdades fundamentais e considerar meios menos intrusivos”, alerta ainda o CEPD.

A Comissão deverá ter em conta estes alertas na nova legislação sobre sistemas inteligentes, que visa ainda mais investimentos em inteligência artificial na UE, tanto através do orçamento comunitário a longo prazo, como de parcerias público-privadas (PPP).

A inteligência artificial é um avanço tecnológico que permite que os sistemas funcionem de forma autónoma, executando ordens específicas baseadas em padrões estabelecidos por um banco de dados.

Fonte: TSF

QUAL A DIFERENÇA ENTRE CIENTISTA DE DADOS E ENGENHEIRO DE MACHINE LEARNING?

Postado em janeiro 5, 2020

O título deste post é uma dúvida muito comum. Na verdade, há muita confusão sobre este assunto, principalmente porque ambas são funções realmente novas. Mas, se nos concentrarmos na semântica, o significado real de cada função fica claro. Cientista de Dados e Engenheiro de Machine Learning são, na verdade, termos gerais. A posição em si não especifica realmente os papéis individuais, que podem variar de empresa para empresa. Mas neste artigo, vamos colocar alguma luz sobre o assunto e compreender Qual a Diferença Entre Cientista de Dados e Engenheiro de Machine Learning.

Ciência x Engenharia

A definição de Ciência em geral é sobre experimentos, tentativas e falhas, construção de teorias, compreensão de um fenômeno e análise matemática/estatística. Engenharia é o trabalho feito sobre o que a ciência já sabe, aperfeiçoando-a e levando-a para o “mundo real”. Vamos começar com uma analogia bem objetiva para compreender Qual a Diferença Entre Cientista de Dados e Engenheiro de Machine Learning.

Qual é a diferença entre um Cientista Nuclear e um Engenheiro Nuclear?

O Cientista Nuclear é aquele que conhece a ciência por trás do átomo, a interação entre eles, aquele que escreveu a receita que permite obter energia dos átomos. O Engenheiro Nuclear é o profissional encarregado de pegar a receita do Cientista e levá-la ao mundo real. Portanto, seu conhecimento sobre a física atômica é bastante limitado, mas ele tem outros conhecimentos associados à Ciência e o que mais for útil para construir uma usina nuclear adequada.

Voltando ao mundo dos dados: os profissionais que desenvolvem redes neurais convolucionais (por exemplo) para resolver um problema de negócio são Cientistas de Dados, os profissionais que implantam o modelo para reconhecer rostos em imagens são Engenheiros de Machine Learning. O responsável por todo o processo, desde a aquisição de dados até o registro da imagem .jpg, é um Engenheiro de Dados.

Nos dias de hoje, o papel de um Cientista de Dados tornou-se mais genérico e abrangente, de tal forma que o Aprendizado de Máquina é apenas parte do trabalho em seu dia a dia. O Cientista de Dados pode trabalhar todo um processo de análise sem necessariamente usar Machine Learning. Machine Learning é uma das muitas ferramentas empregadas por Cientistas de Dados.

Os papéis de um Cientista de Dados podem ser múltiplos. Na era das tecnologias de Big Data, manipular, armazenar e consultar uma enorme quantidade de dados simultâneos já é um trabalho extremamente especializado. Seja como for, o Cientista de Dados estará aplicando ciência para resolver problemas de negócios através de dados.

Por outro lado, o papel principal de um Engenheiro de Machine Learning seria projetar abordagens específicas de Machine Learning adequadas aos dados ou ao caso de uso de uma empresa. Outro papel importante pode ser identificar quais das técnicas de Machine Learning existentes são mais adequadas para cada problema de negócio e aplicá-las com sucesso.

E Como Está o Mercado Para Ambas as Funções?

Em termos de salário e crescimento a longo prazo, as estatísticas variam muito! Mas uma coisa pode ser dita com certeza. O número de vagas para Cientistas de Dados supera em muito o número de vagas para Engenheiros de Machine Learning, embora este último esteja em crescimento exponencial. E pode-se dizer com segurança que essas funções definitivamente não vão desaparecer, pelo menos nos próximos 20 anos, já que a quantidade de dados e sua complexidade (4 Vs de Big Data: Volume, Variedade, Velocidade e Veracidade) continuam a aumentar substancialmente. Muitas atividades poderão ser automatizadas nos próximos anos, tornando o trabalho desses profissionais ainda mais focado na solução de problemas, o que realmente importa para uma empresa. Abaixo um gráfico do Indeed com as tendências de vagas de emprego para as duas funções:

 

grafico

Um Cientista de Dados é geralmente responsável pela coleta de dados, limpeza, análise e decisões de negócios com base nos resultados da análise de dados. Ele/Ela é uma pessoa que é analista, sabe programação, sabe Machine Learning e tem perspicácia em áreas de negócios. Tudo isso claro, além do conhecimento Matemático e Estatísticos envolvidos em cada técnica de análise ou Machine Learning utilizadas.

O Engenheiro de Machine Learning tem um perfil mais de Engenheiro de Software com habilidades de Machine Learning. Ele geralmente desenvolve novos modelos ou aplica modelos existentes de maneira mais bem-sucedida. Ele é responsável por fornecer uma solução ótima. Um Engenheiro de Machine Learning precisa descobrir qual abordagem (aprendizado de máquina, processamento de imagem, rede neural, lógica difusa, etc.) pode ser mais otimizada (considerando performace e escalabilidade) usada para um determinado objetivo.

Em termos salariais, um Cientista de Dados tem remuneração em torno de 120 a 150 mil dólares por ano nos EUA. Um Engenheiro de Machine Learning tem remuneração em torno de 110 mil dólares anuais.

Cientistas de Dados e Engenheiros de Machine Learning trabalham juntos, pois os Engenheiros de Machine Learning geralmente fazem parte da equipe de Data Science.

grafico2

Cerca de 7 anos atrás, quase todos os Cientistas de Dados também estavam focados em engenharia, pois eles tinham que escrever o código e fazer o deploy em produção. Agora, no entanto, à medida que Data Science cresce cada vez mais nas empresas, há mais funções necessárias, como Engenheiros de Machine Learning e Engenheiros de Dados, uma vez que as empresas se tornam orientadas a dados e usam análise de dados em todos os seus processos. O mercado para esses perfis profissionais só tende a crescer nos próximos anos.

Mas Afinal, Qual a Diferença Entre Cientista de Dados e Engenheiro de Machine Learning?

Como mencionado acima, há algumas semelhanças quando se trata das funções de Cientista de Dados e Engenheiro de Machine Learning.

No entanto, se você olhar para as duas funções como membros da mesma equipe, um Cientista de Dados faz a análise estatística necessária para determinar qual abordagem de aprendizado de máquina usar, então ele(a) modela o algoritmo e o prototipa para teste. Nesse ponto, um Engenheiro de Machine Learning usa o modelo protótipo e o faz funcionar em um ambiente de produção em escala.

Voltando à divisão entre cientista e engenheiro, não é necessariamente esperado que um Engenheiro de Machine Learning compreenda os modelos preditivos e sua matemática subjacente como um Cientista de Dados deve ser capaz de compreender. Espera-se, no entanto, que um Engenheiro de Machine Learning domine as ferramentas de software que tornam esses modelos utilizáveis.

Os Engenheiros de Machine Learning estão na intersecção entre engenharia de software e ciência de dados. Eles aproveitam ferramentas de Big Data e frameworks de programação para garantir que os dados brutos coletados dos pipelines de dados (o que é feito por Engenheiros de Dados) sejam redefinidos como modelos de ciência de dados que estão prontos para escalar conforme necessário.

Engenheiros de Machine Learning alimentam dados em modelos definidos por Cientistas de Dados. Eles também são responsáveis por usar modelos teóricos de ciência de dados e ajudar a escaloná-los para modelos de nível de produção que podem manipular terabytes de dados em tempo real.

Quais as Responsabilidades de um Engenheiro de Machine Learning?

As responsabilidades de um Engenheiro de Machine Learning serão relativas ao projeto no qual eles estão trabalhando. No entanto, se você explorar as postagens de vagas de emprego, perceberá que, na maioria das vezes, os Engenheiros de Machine Learning serão responsáveis ​​pela criação de modelos e na manutenção de soluções escaláveis ​​de aprendizado de máquina em produção.

Veja o que essa função geralmente exige:

  • – Desenvolver modelos de aprendizado de máquina
  • – Colaborar com Engenheiros de Dados para desenvolver e modelar pipelines de dados
  • – Aplicar técnicas de aprendizado de máquina e de ciência de dados e projetar sistemas distribuídos
  • – Escrever código no nível de produção
  • – Trazer código para produção
  • – Melhorar os modelos existentes de aprendizado de máquina
  • – Responsável por todo o ciclo de vida (pesquisa, projeto, experimentação, desenvolvimento, implantação, monitoramento e manutenção)
  • – Produzir resultados do projeto e isolar problemas
  • – Implementar algoritmos e bibliotecas de aprendizado de máquina
  • – Comunicar processos complexos aos líderes de negócios
  • – Analisar conjuntos de dados grandes e complexos para obter informações valiosas
  • – Pesquisa e implementação das melhores práticas para melhorar a infraestrutura existente de aprendizado de máquina

Quais as Responsabilidades de um Cientista de Dados?

Quando comparado com um estatístico, um Cientista de Dados sabe muito mais sobre programação. No entanto, quando comparado a um Engenheiro de Software, ele sabe muito mais sobre estatística do que sobre programação.

Os Cientistas de Dados estão bem equipados para armazenar e limpar grandes quantidades de dados, explorar conjuntos de dados para identificar informações valiosas, criar modelos preditivos e executar projetos de ciência de dados de ponta a ponta. Mais frequentemente, muitos Cientistas de Dados já trabalharam como analistas de dados ou analistas de BI.

Veja o que a função normalmente exige:

  • – Pesquisar e desenvolver modelos estatísticos para análise
  • – Compreender melhor as necessidades da empresa e desenvolver soluções possíveis, colaborando com os departamentos de engenharia e gerenciamento de produtos
  • – Comunicar resultados e conceitos estatísticos aos principais líderes de negócios
  • – Usar bancos de dados e projetos apropriados para otimizar os esforços conjuntos de desenvolvimento
  • – Desenvolver modelos e algoritmos personalizados
  • – Criar processos e ferramentas para ajudar a monitorar e analisar o desempenho e a precisão dos dados
  • – Usar a modelagem preditiva para aprimorar e otimizar as experiências dos clientes, a geração de receita, a segmentação de anúncios e muito mais
  • – Desenvolver a estrutura de testes A / B da empresa e testar a qualidade do modelo

Conclusão

Em geral um Cientista de Dados é capaz de desempenhar as tarefas de um Engenheiro de Machine Learning, mas um Engenheiro de Machine Learning pode não ter os conhecimentos necessários para desempenhar o trabalho de um Cientista de Dados.

Mas seja você um Engenheiro de Machine Learning ou um Cientista de Dados, você estará trabalhando na vanguarda dos negócios e da tecnologia. E como a demanda por talentos de alta tecnologia ultrapassa de longe a oferta, a competição por mentes brilhantes dentro deste espaço continuará a ser acirrada nos próximos anos. Portanto você estará tomando uma sábia decisão de carreira escolhendo entre uma função ou outra, não importa qual caminho você escolher. Certifique-se apenas de escolher aquilo que lhe traga satisfação pessoal e profissional.

E se precisar de ajuda, a Data Science Academy oferece programas completos de capacitação profissional, 100% online e 100% em português. Clique no link abaixo e confira:

Quero Ser Um Profissional em Alta Demanda

Fonte:  Data Science Academy

Curso – Gestão da Privacidade da Informação – próximas turmas de apresentação da norma ABNT NBR ISO/IEC 27701:2019

Em dezembro de 2019 foi lançada uma norma de extrema importância: a ABNT NBR ISO/IEC 27701.

Esta norma orienta a implementação de um sistema de gestão da privacidade da informação e estende as normas 27001 e 27002 de segurança da informação de forma que sejam normas de segurança da informação e privacidade.

Sua importância está vinculada a necessidade das organizações em geral de se adequarem aos requisitos e princípios das legislações de proteção de dados, atualmente em vigor em mais de 100 países, entre eles o Brasil com a Lei Geral de Proteção de Dados (LGPD).

Ao apresentar as melhores práticas internacionais de proteção de dados, a norma fornece as empresas um direcionamento seguro para as suas ações de adequação. Mais que isso, um direcionamento que não traz perdas dos esforços já feitos em muitas empresas para a implantação de um sistema de gestão de segurança da informação de acordo com a norma ABNT NBR ISO/IEC 27001.

A norma também abre novas perspectivas para os profissionais de segurança da informação, treinados de acordo com a ABNT NBR ISO/IEC 27002, acrescentando os conhecimentos necessários para qualifica-los como profissionais de segurança da informação e privacidade. Profissionais que serão necessários para apoiar tecnicamente o Encarregado de Proteção de Dados ou, se este for o encaminhamento tomado pelo mercado, atuar neste papel.

Para apoiar empresas e profissionais na adoção da norma, a ABNT também lançou em dezembro de 2019 o curso introdutório à 27701 (Fundamentos do Sistema de Gestão da Privacidade da Informação-SGPI, de acordo com a norma ABNT NBR ISO/IEC 27701).

Com carga horária de 16 horas, o curso apresenta os fundamentos do sistema de gestão da privacidade da informação definido na norma, mostrando a estrutura de privacidade na qual ela se baseia (ISO/IEC 29100), seus requisitos e controles.

O curso não exige conhecimento prévio das normas NBR ISO 27001 e NBR ISO 27002, porém, com certeza, este contribui para um melhor aproveitamento do conteúdo apresentado.

Seu público alvo são pessoas envolvidas na implementação, gestão ou acompanhamento da proteção de dados pessoais. Particularmente: profissionais de segurança da informação, encarregados de proteção de dados, Data Protection Officers (DPOs), especialistas em tecnologia da informação, consultores técnicos, advogados interessados em normas técnicas que deem apoio a medidas de adequação à legislação, profissionais da área de Compliance e de gestão de riscos de TI, bem como prestadores de serviços de TI em geral.

São abordados no curso orientações, requisitos e controles relacionados a:

  • Estrutura de Privacidade da Informação
  • Governança e organização da segurança da informação e privacidade
  • Gestão de riscos de segurança da informação e privacidade
  • Política de segurança da informação e privacidade
  • Gestão dos ativos de acordo com a segurança da informação e privacidade
  • Segurança da informação e privacidade nos Recursos Humanos
  • Segurança física
  • Segurança da informação e privacidade na comunicação e operação
  • Controle de acesso
  • Desenvolvimento seguro
  • Gestão de incidentes de segurança da informação e privacidade
  • Continuidade dos negócios
  • Compliance
  • Condições para a coleta e tratamento dos dados
  • Obrigações para com os titulares de dados pessoais
  • Compartilhamento e transferência de dados pessoais
  • Instrutor da ISO (Genebra) no curso oficial sobre as normas ISO IEC 27001 E ISO IEC 27002, nos anos de 2011 e 2012;
  • Instrutor da ABNT, desde 2006, no curso oficial sobre as normas ISO IEC 27001 e ISO IEC 27002
  • Líder da Delegação do Brasil nas reuniões do ISO/IEC JTC 1/SC 27, Comitê responsável pela elaboração das normas ISO 27001, ISO 27002, ISO 27701 e demais normas que apoiam a ISO 27701
  • Coordenador da Comissão da CE-021.000.027, espelho no Brasil do Comitê ISO/IEC JTC 1/SC 27 .
  • Relator do projeto NBR ISO/IEC 27701
  • ISO 27001 Sênior Lead Auditor
  • Consultor em Sistemas de Gestão da Segurança da Informação e Privacidade
  • Consultor de Segurança da Informação e Gestão de Riscos de TI
  • Membro da Comissão da CE-021.000.027
  • Relator do projeto NBR ISO/IEC 29100
  • Professor no curso LGPD na Prática da Fundação Vanzolini

O material didático do curso é composto pela apostila, pelas normas ABNT NBR ISO/IEC 27001, ABNT NBR ISO/IEC 27002 e ABNT NBR ISO/IEC 27701, e por vários exercícios de fixação de conceitos. O curso é ministrado pelos seguintes instrutores:

Ariosto Farias Júnior:

  • Instrutor da ISO (Genebra) no curso oficial sobre as normas ISO IEC 27001 E ISO IEC 27002, nos anos de 2011 e 2012;
  • Instrutor da ABNT, desde 2006, no curso oficial sobre as normas ISO IEC 27001 e ISO IEC 27002
  • Líder da Delegação do Brasil nas reuniões do ISO/IEC JTC 1/SC 27, Comitê responsável pela elaboração das normas ISO 27001, ISO 27002, ISO 27701 e demais normas que apoiam a ISO 27701
  • Coordenador da Comissão da CE-021.000.027, espelho no Brasil do Comitê ISO/IEC JTC 1/SC 27 .
  • Relator do projeto NBR ISO/IEC 27701
  • ISO 27001 Sênior Lead Auditor
  • Consultor em Sistemas de Gestão da Segurança da Informação e Privacidade

Carlos Alberto Iglesia Bernardo:

  • Consultor de Segurança da Informação e Gestão de Riscos de TI
  • Membro da Comissão da CE-021.000.027
  • Relator do projeto NBR ISO/IEC 29100
  • Professor no curso LGPD na Prática da Fundação Vanzolini

As inscrições para as duas próximas turmas do curso já estão abertas no portal de cursos da ABNT. Os cursos ocorrerão nos dias 13 e 14 de fevereiro, e 12 e 13 de março de 2020. As vagas são limitadas e, pela importância da norma, a previsão é de que a procura seja significativa. Assim, sugerimos que não deixe sua inscrição para a última hora.

Também há a possibilidade da contratação de cursos para turmas fechadas em empresas. Se tiver interesse, entre em contato com a área de cursos da ABNT (capacitacao@abnt.org.br).

Fonte: Associação Brasileira de Normas Técnicas (ABNT)

3 CONCEITOS DEFINEM O FUTURO DO TRABALHO: DADOS, DESCENTRALIZAÇÃO E AUTOMAÇÃO

A empresa de amanhã parecerá fundamentalmente diferente da empresa de hoje. As empresas que estão cientes das próximas mudanças podem se preparar melhor e obter vantagem competitiva em uma sociedade baseada em dados. Consequentemente, o futuro do trabalho exigirá que a gerência e os funcionários adotem uma abordagem diferente quando se trata de criar e entregar um produto ou serviço. O futuro do trabalho será definido por três conceitos: dados, descentralização e automação que mudarão radicalmente liderança, cultura, privacidade e segurança. Vamos discutir cada um desses conceitos.

O Futuro do Trabalho é Orientado por Dados

Big Data já existe há algum tempo. Muitas vezes, o termo foi cunhado como a próxima “revolução da administração”, a Quarta Revolução Industrial ou “a próxima fronteira para inovação, competição e produtividade”. Embora apenas alguns anos atrás, as organizações ainda lutassem para entender o impacto dessas tendências em seus negócios, o Big Data agora emergiu como o padrão corporativo.

A análise de Big Data afeta todas as organizações, grandes ou pequenas, tem impacto em todos os setores do mundo e é uma característica essencial da empresa de amanhã. Especialmente nesses tempos ambíguos e incertos, a análise permite que as organizações sintam as oportunidades. Usar grandes quantidades de dados estruturados e não estruturados e aplicá-los a análises avançadas permite que as organizações entendam seu ambiente e aproveitem oportunidades, o que lhes permite permanecer competitivas.

A análise de dados pode ajudar a interpretar o ambiente de negócios, capacitar os gerentes a agir e resultar em desempenho superior sustentado e vantagem competitiva. A introdução de análises descritivas, preditivas e prescritivas em seu trabalho significa que a maneira tradicional de tomada de decisão, com base na experiência e conhecimento, é trocada pela tomada de decisão baseada em dados. Quando as organizações fornecem a mais pessoas acesso ao conhecimento, o poder é distribuído de forma mais igual, permitindo o empoderamento dos funcionários dentro de uma organização. Essa mudança de poder é necessária para se beneficiar totalmente da análise de Big Data.

O futuro do trabalho, portanto, resultará em organizações mais planas, onde os funcionários de frente para o cliente ou os envolvidos diretamente na construção de um produto usam dados para otimizar suas decisões. Isso requer uma mudança na cultura da empresa, pois as informações obtidas em tempo real dos dados exigem ações em tempo real dos funcionários e da gerência. Menos gerentes e funcionários mais capacitados mudarão radicalmente a cultura corporativa.

Como resultado, acredito que as organizações futuras serão cada vez mais uma holacracia. Uma holacracia é uma organização em que o poder é distribuído por toda a organização, permitindo autogestão e empoderamento. Aplica gerenciamento descentralizado e governança organizacional, em que autoridade e tomada de decisão são distribuídas e delegadas usando equipes auto-organizadas. Dentro de uma holacracia, a liderança é um facilitador para funcionários capacitados.

Formação recomendada: Formação Cientista de Dados

O Futuro do Trabalho é Descentralizado

Depois que os processos e os pontos de contato do cliente tiverem sido dataficados, os dados se tornarão o denominador comum na organização. Os dados podem ser facilmente compartilhados com empresas parceiras, resultando em inúmeras oportunidades para aumentar a eficiência em uma cadeia de suprimentos e melhorar a colaboração com parceiros do setor.

Portanto, acho que a tecnologia Blockchain, ou a tecnologia de contabilidade distribuída, será o padrão de ouro para as cadeias de suprimentos. O futuro do trabalho dependerá de uma fonte única e descentralizada da verdade ao trocar valor entre os parceiros do setor. Em um sistema descentralizado, os dados se tornam imutáveis, verificáveis ​​e rastreáveis. Isso significa que a proveniência de dados ou produtos ajudará a organização do amanhã a se tornar mais eficiente e transparente. As organizações podem criar valor colaborando sem esforço em tempo real com uma rede de atores ponto a ponto.

Graças à Blockchain, o futuro do trabalho será mais eficiente, transparente e seguro. A liquidação das transações levará horas, em vez de semanas, a causa dos produtos defeituosos pode ser encontrada em minutos, em vez de dias, e suas redes se tornarão mais seguras e resistentes aos hackers. Além disso, Blockchain permite que as organizações incorporem a governança de dados diretamente na rede, trazendo o código para os dados. As leis e as regulamentações podem ser programados em código e armazenados em uma Blockchain para que sejam aplicados automaticamente. Isso facilitará a governança e pode atuar como evidência legal para dados, aumentando a importância da propriedade, transparência e auditabilidade dos dados.

Com o futuro do trabalho, os contratos inteligentes removerão cada vez mais a necessidade de julgamento humano e minimizarão a necessidade de confiança. Quando vários contratos inteligentes são combinados, juntamente com Inteligência Artificial e análises, torna-se possível automatizar completamente os recursos de tomada de decisão. Isso resultará em um paradigma completamente novo de atividade de organização e poderá resultar em novos projetos organizacionais que são completamente executados por código de computador, as chamadas Organizações Autônomas Descentralizadas (DAOs). O futuro do trabalho pode muito bem estar sem funcionários.

Formação recomendada: Formação Engenheiro Blockchain

O Futuro do Trabalho é Automatizado

A organização de amanhã dependerá fortemente da Inteligência Artificial. Já existem vários exemplos de ótimas aplicações de IA, e lentamente as organizações entendem que também precisamos ter cuidado com a IA. No entanto, a Inteligência Artificial oferece às organizações a chance de atualizar seus processos e pontos de contato com o cliente, mesclando recursos humanos e de máquinas.

A Inteligência Artificial é uma disciplina ampla com o objetivo de desenvolver máquinas inteligentes. A IA consiste em vários subcampos, tais como: Machine learning (ML), um subconjunto de IA que permite que as máquinas aprendam com os dados. Aprendizado por Reforço (Reinforcement Learning), que se concentra em agentes artificiais que usam tentativa e erro para melhorar seu próprio desempenho. E o Aprendizado Profundo (Deep Learning), também um subconjunto de ML que visa imitar o cérebro humano para detectar padrões em grandes conjuntos de dados e se beneficiar desses padrões. Recentemente, vimos muito progresso na transferência de aprendizado, onde a IA pode aplicar conhecimento de um domínio em outro domínio.

Quando se trata do futuro do trabalho, existem três domínios em que a IA terá maior impacto: o mundo humano, o mundo físico e o mundo da informação. No mundo humano, veremos predominantemente sistemas cognitivos onde a IA colabora diretamente com os seres humanos. O melhor exemplo seria o uso de chatbots em um call center. Os chatbots não assumirão completamente o controle de uma central de atendimento, mas auxiliarão seus agentes no trabalho.

A IA e o mundo físico giram em torno de robôs. Aqui, os robôs ajudarão os humanos em seu trabalho, ou assumirão completamente determinadas tarefas, por exemplo, nas fábricas. As primeiras fábricas escuras – fábricas onde está escuro porque não há mais humanos trabalhando – é um exemplo extremo da integração da IA ​​no mundo físico. No entanto, um exemplo mais comum seria a integração de exoesqueletos para aumentar os trabalhadores da fábrica em seu trabalho. Mas com o uso de RPA (Robotic Process Automation) a automação está chegando nas mesas de escritório e um Robô RPA pode, por exemplo, automatizar o cadastro de uma fatura ou o envio de um e-mail.

Finalmente, o aprendizado de máquina lida com o mundo da informação. É tudo sobre máquinas que usam dados para aprender. Muitos de nós já nos acostumamos com isso em nossas vidas ou trabalhos diários, onde os algoritmos de aprendizado de máquina nos ajudam a encontrar um site, um determinado produto ou livro (os chamados mecanismos de recomendação).

O futuro do trabalho é a integração perfeita dos três domínios, em que os sistemas cognitivos aumentam as interações humanas, a robótica substitui ou interage diretamente com os seres humanos e o aprendizado de máquina ajuda a entender o fluxo de dados que se aproxima. Juntos, esses três sistemas automatizarão o trabalho futuro, mudando assim a noção de trabalho em si.

Formação recomendada: Formação Desenvolvedor RPA

Formação recomendada: Formação Inteligência Artificial

Privacidade e o Futuro do Trabalho

O denominador comum no futuro do trabalho são dados, e a organização de amanhã será uma organização de dados. No entanto, uma organização de dados não apenas oferece grandes oportunidades, mas, o que é mais importante, traz grandes responsabilidades. Permite que você ofereça o melhor produto ou serviço ao cliente, mas somente se você respeitar seu cliente e os dados disponíveis. Ética, privacidade e segurança devem ser transmitidas a todos os funcionários e as organizações devem aderir a várias diretrizes éticas.

Antes de tudo, as organizações devem ser transparentes, para que os consumidores saibam o que será feito com os dados coletados hoje e no futuro. Eles devem manter sua comunicação simples e compreensível, para que todos, inclusive os imigrantes digitais, entendam o que está sendo feito com os dados. Isso significa simplificar os termos e condições para garantir a clara compreensão.

Todos os dados devem estar bem protegidos e criptografados. Embora a tecnologia de contabilidade distribuída permita dados altamente seguros, dados não descentralizados permanecem receptivos para hackers. Onde os dados são coletados, os hackers estarão ativos e qualquer organização deve assumir que elas podem e serão invadidas. As organizações devem garantir que os hackers não tenham chance e, se tiverem acesso aos dados, os dados serão inúteis. Se sua organização ainda não foi invadida, você simplesmente não é importante o suficiente.

Se os dados são seu ativo mais importante, como é o caso de uma organização de dados, eles devem exigir a máxima atenção. Portanto, a criptografia resistente à computação quântica deve ser aplicada aos dados para proteger sua organização também na era do computador quântico. Em seguida, a organização de amanhã deve devolver o controle dos dados ao consumidor sempre que possível. Se o consumidor criou os dados, ele é o proprietário e deve controlá-los. Por fim, a privacidade deve fazer parte do DNA, para que todos os funcionários entendam a importância dela. O desenvolvimento de uma marca de qualidade, para garantir que as organizações sigam essas diretrizes, pode ser imaginável / desejável.

A organização de amanhã não conseguirá sobreviver por muito tempo ao ignorar essas diretrizes éticas. Os custos de transição para os consumidores só diminuirão, especialmente quando a propriedade dos dados retornar aos consumidores. Quando chegarmos a uma sociedade descentralizada, o poder recairá sobre o consumidor e as organizações terão que se concentrar em simplesmente desenvolver o melhor produto e oferecer o melhor serviço.

Conclusão

O futuro do trabalho gira em torno de dados, descentralização e automação. A coleta de dados pode ajudar todos os aspectos da sua empresa, desde o desenvolvimento de novos produtos até a melhoria da eficiência operacional. Os dados levam ao conhecimento que, em última análise, impulsiona a tomada de decisão. Como tal, a organização do amanhã é uma empresa de dados.

Para transformar sua empresa em uma empresa de dados, há muito trabalho a ser feito. Isso significa que você deve processar seus dados, distribuir seus dados pela nuvem ou usar tecnologias de contabilidade distribuída, analisar seus dados usando análises para detectar e aproveitar oportunidades e automatizar sua tomada de decisão usando IA e contratos inteligentes. Em cada uma dessas etapas, você deve levar em consideração as diretrizes éticas para garantir que respeite a privacidade e a segurança de seus funcionários e clientes. Ao fazer isso, você se tornará uma empresa de dados pronta para o futuro do trabalho.

E você, como profissional? Está orientando sua carreira para dados, descentralização e automação?

Referência:

3 Concepts Defining the Future of Work: Data, Decentralisation and Automation

Fonte: Data Science Academy

Se a internet apaga os dados, quem vai zelar pela nossa história digital?

Já pensou como será que acessaremos nosso passado daqui 500 anos? - Thinkstock

 

Já pensou como será que acessaremos nosso passado daqui 500 anos?

Olívia Fraga

Colaboração para Tilt, em São Paulo*

Resumo da notícia

  • É provável que suportes materiais atuais para registro de dados estejam obsoletos no futuro
  • Fartura de registros é facilitada por empresas privadas como Google e Facebook
  • Mas se usuário morre ou empresa fecha as portas, esses dados podem se perder
  • Formação de cientistas de dados e iniciativas de arquivo podem ajudar a manter parte dos dados

Olhe ao redor e procure as pegadas da ação humana. Você enxerga um celular ali, nota um notebook desligado no canto, cadernos e folhas soltas marcadas a caneta sobre uma mesa. Agora imagine-se no ano de 2519, e que sua tarefa é entender a história de 500 anos atrás. No arranque tecnológico em que vivemos, é provável que quase todo suporte material atual para registro de dados esteja obsoleto em 2519. De que serve, por exemplo, uma fita cassete sem um tocador?

Se hoje a lógica do “quanto menor o dispositivo, maior o acervo” já nos assombra, o que acontecerá com todo o conteúdo gerado nas redes? Armazenada na nuvem, a quem pertence a narrativa de bilhões de pessoas e todo o volume de dados digitalizados? O trabalho do historiador que quiser fazer um balanço dos anos 2000 será tão ou mais complexo que o de um pesquisador que estuda a Idade Média, por exemplo?

Abundância: faca de dois gumes

O futuro da informação nunca foi tão pouco palpável, mas o excesso de fatos históricos não é exatamente a raiz do problema. O historiador Renato Rodrigues da Silva pesquisou a aristocracia inglesa na Alta Idade Média. Fontes primárias produzidas no período estudado na sua pesquisa, que sobreviveram até nossos dias, são poucas.

Professor de história medieval da Unifesp (Universidade Federal de São Paulo), em Guarulhos (SP), ele afirma que a história não é feita a partir do conhecimento de uma amostra gigantesca de fontes. “A história não é o passado, apenas; como campo científico, ela é o conhecimento que se tem deste passado. O passado nunca muda; o conhecimento que temos dele muda sempre”, complementa.

Como exemplo, ela compara a fonte histórica à testemunha no tribunal: ela só responde quando perguntada. “Para cada tipo de pergunta, uma testemunha pode ser melhor que outra. Você não seleciona de primeira alguém com deficiência visual para ser testemunha ocular de um crime.”

A questão de algoritmos e redes sociais

Com um smartphone o tempo todo no bolso, coletamos e registramos toneladas de dados em nossas vidas, e parte deles serve de registro histórico. Mas a internet passa a ilusão de que temos algum controle sobre isso.

“Ao mesmo tempo em que a gente produz muita informação, esse registro nem sempre está acessível. Essas fotos podem ‘sumir’ quando eu morrer ou quando o próprio Facebook sumir — é só pensar no Orkut e toda a memória que estava lá e foi perdida”, explica Mariana Valente, diretora do InternetLab e coordenadora do Creative Commons Brasil.

O mesmo vale para documentos armazenados digitalmente nas redes. “Eles de fato facilitam o acesso em relação a arquivos físicos, mas têm uma durabilidade muito pequena. Servidores e sites desaparecem, e a memória vai embora”, diz Pablo Ortellado, professor do curso de Gestão de Políticas Públicas da USP.

Daí a fartura de registros é facilitada por empresas privadas. “Se você procurar meu nome na internet, vai aparecer um monte de coisa que pode ser relevante sobre mim e outras que podem não ser. Mas o ponto central é que é o algoritmo do mecanismo de busca que você usa —por exemplo, o do Google— que determina o que vai vir antes do quê”, afirma Mariana.

Sabemos por alto quais os critérios que o Google usa para organizar os resultados das buscas, mas não os detalhe dos algoritmos. E as regras também vão mudando com o tempo. Afinal, são determinadas por pessoas de uma empresa que tem seus próprios interesses.

Isso ainda é pouco questionado: os algoritmos são quase sempre vistos como neutros, que estariam devolvendo ao usuário a informação mais relevante. “A gente esquece que o aprendizado de máquina personaliza até mesmo as buscas. Um conteúdo que aparece para mim pode aparecer diferente para você”, argumenta Mariana.

É preciso investimento

Para Sabina Leonelli, professora de Filosofia e História da Ciência na Universidade de Exeter (Inglaterra), qualquer dado e seus possíveis cruzamentos serão documentos históricos “em um futuro próximo”, mas não sabemos se eles estarão acessíveis no longo prazo. Pense na dificuldade que é hoje ler um disquete ou uma fita VHS. Nada disso tem 100 anos. Imagine daqui a 500.

“A informação digital pode se revelar muito menos duradoura que a de papel, especialmente pela escassez de investimentos na preservação da memória digitalizada. Além disso, temo que a crescente exclusão digital que vemos agora vá se tornar ainda maior. Grupos menos favorecidos terão menos recursos de preservar dados sobre seu passado e história”, diz Leonelli.

Lucas Lago, mestre em engenharia da computação pela USP, criou um bot de transparência no Twitter. Chamado projeto7c0, copia e arquiva tuítes de políticos, para guardar mesmo o que é apagado. “O que é publicado digitalmente pode ser alterado, então devemos criar ferramentas para preservar”, explica.

“Por mais que o Twitter queira garantir a privacidade das postagens realizadas ali, e até mesmo o direito ao esquecimento, a Constituição diz que discursos de administradores públicos devem ser públicos”, diz Lucas, detalhando o objetivo de seu projeto.

Iniciativas como a dele, no entanto, cobrem recortes pequenos dessa história digital. A pesquisadora Lee Humphreys, professora-assistente de Comunicação da Universidade Cornell, nos EUA, duvida que, no futuro, historiadores e usuários comuns tenham mais facilidade — ou oportunidade — de acessar esses bancos.

“O armazenamento e o gerenciamento de dados de mídia social não são apenas vastos; são muito complexos. Há grandes chances de os historiadores terem dificuldade em acessar a maioria dos dados digitais. Em uma pesquisa, concluímos que as pessoas guardavam mais fotos antes de comprar uma câmera digital do que depois de comprá-la. Não é apenas a criação de dados que importa, mas o armazenamento e o acesso subsequente que serão importantes para o futuro.”

Lee Humphreys.

A ascensão das humanidades digitais

É por isso que habilidades em “humanidades digitais” devem se tornar indispensáveis aos historiadores nos próximos anos. Isso já está acontecendo em todos os campos do conhecimento e na arqueologia, que estuda a pegada humana por meio dos registros materiais deixados por nós — de utilitários triviais como vasos e talheres a equipamentos eletrônicos.

Sabina Leonelli acredita que os cientistas de dados não estão necessariamente sendo treinados para pensar historicamente. “Em meu trabalho, pude comprovar a facilidade com que os cientistas de dados muitas vezes usam dados sem investigar sua origem.”

Em tempos de desinformação no WhatsApp, a chamada ciência cidadã transforma cada usuário das redes em um “ente participante”, como define Mariana Valente. Todo mundo pode registrar, organizar e analisar informações, e discuti-las coletivamente. Construir sentido de forma coletiva e organizada é a razão de ser da internet.

“É importante fazer com que os curadores tradicionais, os museus, os arquivos, façam esse trabalho de organização levando em consideração como as informações são criadas hoje, mas os novos tipos de curadoria de informação precisam pensar numa política de preservação, em se entenderem como criadores de memória. Isso tudo vai além das instituições que já existem, no momento em que a produção descentralizou muito”, alerta Mariana.

Em se tratando de órgãos oficiais e a nível federal, o Brasil está bem servido. Daniel Flores, doutor em ciência da informação e professor de arquivologia da UFF (Universidade Federal Fluminense) considera o Arquivo Nacional brasileiro “um caso de excelência”, que faz uso do que há de mais moderno no mundo sobre a gestão e preservação digital.

Esse tipo de trabalho é fundamental, mas insuficiente. “Esta é uma questão de cidadania. Além dos órgãos públicos, a sociedade civil também tem o seu papel de fiscalização e acompanhamento”, conclui.

* colaborou Rodrigo Trindade

Fonte: Tilt

Quanto valem os seus dados?

Com a chegada da Lei Geral de Proteção de Dados (LGPD) no Brasil prevista para agosto de 2020, empresas começam a investir em segurança cibernética.

*Nathan Smolenski

Foto: Shuterstock

Empresas como Google e Facebook não escondem que lucram com os dados dos usuários.  Como elas, grande parte das empresas esperam monetizar de alguma forma as informações dos clientes, mesmo que seja apenas para oferecer serviços mais adequados e personalizados. Por esse motivo, temos hoje um grande volume de dados nas empresas, embora a maioria não tenha a menor ideia do que fazer com eles.

Com a chegada da Lei Geral de Proteção de Dados (LGPD) no Brasil prevista para agosto de 2020 (e com proposta em andamento de prorrogação para 2022), as empresas começaram a investir mais em soluções de segurança cibernética, preocupadas em manter o compliance. Nessa hora surge o dilema: Quanto valem esses dados?

Saber tipificar e qualificar os dados armazenados para definir o grau de importância de cada um para a empresa é essencial para o controle de custo. Sem isso, existe o risco de realizar um investimento sem qualquer retorno financeiro ou ainda de multa pela falta de controle dos dados.

Infelizmente, algumas empresas só devem parar pra pensar no assunto quando a lei as atingir, como aconteceu com algumas empresas europeias quando a General Data Protection Regulation (GDPR) entrou em vigor. Um dos casos com maior notoriedade na mídia foi a multa de quase 200 milhões de libras esterlinas aplicada na British Airways após o vazamento de informações por falta de controles básicos, conforme constatado durante a fiscalização.

Para evitar esse tipo de situação, a solução mais eficaz é antecipar o compliance e fazer uma análise para mitigar riscos com base na estrutura de dados da empresa. Pensar não só no volume, mas na relevância dos dados, quais devem ser protegidos de maneira mais crítica, como estão sendo acessados e qual o nível de visibilidade, principalmente quando estão armazenados na nuvem.

Para controlar o risco é preciso remover os elementos de identificação pessoal dos clientes. Há muitas maneiras de fazer isso, como, por exemplo, a partir da criptografia ou ofuscação dos dados, que é uma alteração na forma de leitura do arquivo, dificultando a decodificação por usuários externos. Desta forma é possível manter as informações na empresa sem que elas sejam identificáveis. E, então, caso ocorra um vazamento, esses dados seriam inúteis, pois não teriam significado algum para quem o recebe, apenas para a empresa que entende o contexto da informação e a sua utilidade.

Aplicar o controle dos dados de maneira eficiente é um outro ponto fundamental que pode elevar o nível de proteção. Controles rigorosos aplicados em conteúdos acessados por muitos usuários, por exemplo, não garantem segurança, já que nesses casos os usuários acabam tentando acessar por caminhos mais simples, salvando as informações em outras plataformas não monitoradas pela TI e aumentando o risco de exposição.

Outro ponto essencial é a visibilidade, que se tornou, sem dúvidas, a chave da segurança na nuvem.  É preciso compreender o contexto dos caminhos que os dados percorrem dentro das aplicações na nuvem, identificar os controles necessários e quais atividades devem ser restringidas para não descumprir a regulamentação. Além disso, a preocupação não é apenas local. As empresas precisam saber exatamente, e em tempo real, de onde os usuários estão acessando as informações, para onde os dados estão indo e quais são as leis locais de proteção.

Adotar o conceito de Zero Trust é uma boa opção para mitigar os riscos na nuvem. Em geral são ações para minimizar acesso aos dados sensíveis e a determinados tipos de serviços, além de  utilizar recursos e funções que ajudem a construir regras específicas para os usuários como, por exemplo, o que ele pode fazer ou a quais informações pode ter acesso.

A nuvem já é uma realidade e a aplicação da LGPD no Brasil é apenas uma questão de tempo. Adequar as formas de controle de dados para manter o compliance com os princípios de cibersegurança se tornou um diferencial competitivo, que pode garantir a confiança das marcas e, principalmente, a sobrevivência da maioria das empresas no mercado nos próximos anos.

*Por Nathan Smolenski, diretor de estratégias corporativas da Netskope

Fonte: IT MIDIA

FAPESP lança Rede de Repositórios de Dados Científicos do Estado de São Paulo

Iniciativa de compartilhamento de informações envolve as seis universidades públicas do estado, ITA e Embrapa e integra política de Open Science da Fundação, sendo pioneira na América Latina (foto: Felipe Maeda/Agência FAPESP)

Maria Fernanda Ziegler | Agência FAPESP – Projetos de pesquisa, além de novos conhecimentos, geram uma infinidade de dados que, se bem organizados, podem subsidiar novos estudos, originando ainda mais conhecimento.

Foi com base na maior eficiência no uso de informações de ciência que a FAPESP lançou em 16 de dezembro a Rede de Repositórios de Dados Científicos do Estado de São Paulo. A iniciativa vai disponibilizar, de modo organizado em uma plataforma aberta, dados associados às pesquisas desenvolvidas em todas as áreas do conhecimento no Estado de São Paulo.

A rede envolve as seis universidades públicas do Estado de São Paulo – Universidade Estadual de Campinas (Unicamp), Universidade de São Paulo (USP), Universidade Estadual Paulista (Unesp), Universidade Federal de São Carlos (UFSCar), Universidade Federal do ABC (UFABC) e Universidade Federal de São Paulo (Unifesp) –, o Instituto Tecnológico de Aeronáutica (ITA) e a Embrapa Informática Agropecuária (CNPTIA/Embrapa).

A ciência, entendida como um bem público, exige comunicação e o acesso aos resultados de projetos de pesquisas deve ser pleno, sem restrições, para que privilégios não sejam criados. A Rede de Repositórios de Dados Científicos do Estado de São Paulo vai dar conhecimento e acesso público não só aos pesquisadores, mas também para o contribuinte paulista que paga para que pesquisas sejam realizadas no Estado de São Paulo”, disse o presidente da FAPESP, Marco Antonio Zago .

Por meio da plataforma será possível ter acesso aos dados gerados em pesquisas científicas, independentemente de sua publicação em artigos científicos. Para o pesquisador que gerou os dados, a Rede de Repositórios aumenta a visibilidade da sua pesquisa, permitindo o seu compartilhamento e reúso em novas pesquisas.

Entre os exemplos de dados que estão disponibilizados na primeira versão da Rede de Repositórios de Dados Científicos do Estado de São Paulo estão um banco de dados contendo toda a rede de drenagem da hidrografia brasileira sob a forma de grafos e um repositório de imagens de sintomas de doenças de plantas disponibilizado pelo CNPTIA-Embrapa.

Open Science

Iniciativas que buscam facilitar a integração e a colaboração entre pesquisadores têm dois resultados principais: o melhor progresso da ciência e a maior eficiência no uso de recursos que custeiam a pesquisa. A nova rede tem esse intuito. É uma iniciativa pioneira e bem sintonizada com as práticas de Open Science. Ela vai dar um grande impulso para o desenvolvimento científico do Estado de São Paulo”, disse Carlos Henrique de Brito Cruz, diretor científico da FAPESP.

De acordo com Brito Cruz, a rede se associa a outras três iniciativas realizadas pela Fundação no âmbito de Open Science.

A primeira ocorreu em 1997, com a criação do Scientific Electronic Library Online ( SciELO ), plataforma que reúne periódicos brasileiros e estrangeiros de acesso aberto. A segunda, implementada em 2010, foi a recomendação de que toda pesquisa financiada com dinheiro público devesse ser publicada em periódicos de acesso aberto, de acesso gratuito. O resultado foi que, em 2018, o Brasil foi o país com o maior número de artigos científicos publicados em acesso aberto em todo o mundo.

A terceira iniciativa mencionada por Brito Cruz é o programa de equipamentos multiusuários que estimula o compartilhamento de equipamentos de alto custo entre diferentes laboratórios.

Buscador de metadados

Hoje é o primeiro dia do resto de nossas vidas. Estamos lançando uma iniciativa pioneira na América Latina, que vai aumentar a visibilidade da ciência no Estado de São Paulo. A colaboração entre as instituições participantes para a criação desta rede começou em 2017 a partir da exigência, pela FAPESP, de um Plano de Gestão de Dados entre os anexos obrigatórios de propostas submetidas”, disse Claudia Bauzer Medeiros , professora do Instituto de Computação da Universidade Estadual de Campinas (Unicamp) e integrante da Coordenação Adjunta da FAPESP para o Programa de Pesquisa em eScience e Data Science.

Um Plano de Gestão de Dados faz parte das boas práticas de pesquisa, com o planejamento, desde o início de uma proposta, sobre quais dados serão produzidos e como serão gerenciados, compartilhados e preservados”, disse Medeiros.

Medeiros, coordenadora do Grupo de Trabalho que a FAPESP instituiu para a criação da Rede, destacou o grande trabalho realizado pelas instituições participantes.

Cada instituição desenvolveu o próprio repositório, criou grupos permanentes internos para sua gestão e trabalhou intensamente para que, ao final, todas pudessem se integrar. Esta integração é viabilizada por um portal único, que diariamente busca informações sobre os dados de cada instituição e disponibiliza essas informações [metadados] de forma integrada. O apoio institucional e o trabalho dos membros do grupo foram essenciais para chegarmos onde chegamos tão rapidamente”, disse.

O portal – um buscador de metadados  – foi desenvolvido pela USP e permite busca por instituição, autor, assunto, ano ou palavras-chave. “Essa iniciativa é um avanço enorme. Evita que muitos dados importantes, seja pela qualidade, caráter histórico ou raridade, se percam. Estamos trabalhando também na questão cultural sobre a importância de gerar esses dados”, disse Medeiros.

Participaram da cerimônia de lançamento da Rede de Repositórios Sylvio Roberto Accioly Canuto , pró-reitor de Pesquisa da USP; Maria do Carmo Kersnowsky, da UFABC; Munir Skaf , Pró-Reitor de Pesquisa da UNICAMP; Carlos Frederico de Oliveira Graeff , pró-reitor de Pesquisa da UNESP; Maryangela Geimba de Lima , do Instituto Tecnológico de Aeronáutica (ITA); João Batista Fernandes , pró-reitor de Pesquisa da Universidade Federal de São Carlos (UFSCar); Lia Rita Azeredo Bittencourt , pró-reitora de Pesquisa da Unifesp; Silvia Maria Fonseca Silveira Massruhá , chefe-geral da Embrapa Informática Agropecuária (CPTIA/Embrapa).

Todos apresentaram como suas instituições estão desenvolvendo seus repositórios e a importância da rede para as pesquisas nelas realizadas.

Fonte: Agência FAPESP

Netflix abre ferramenta para gerenciar projetos em Ciência de Dados

Metaflow gerencia projetos de ciência de dados de ponta a ponta, trabalha com qualquer biblioteca de machine learning e se integra aos serviços da AWS

Infoworld

Foto: Shutterstock

Netflix abriu ao público o Metaflow, ferramenta desenvolvida internamente para criar e gerenciar projetos de ciência de dados baseados em Python. A solução trata de todo o fluxo de trabalho de ciência de dados, do protótipo à implantação do modelo, e fornece integrações internas aos serviços de nuvem da AWS.

Projetos de aprendizado de máquina e ciência de dados precisam de mecanismos para acompanhar o desenvolvimento do código, dados e modelos. Fazer tudo isso manualmente é uma tarefa propensa a erros, e as ferramentas para gerenciamento de código-fonte, como o Git, não são adequadas para todas essas operações.

O Metaflow fornece APIs Python para toda a pilha de tecnologias em um fluxo de trabalho de ciência de dados, do acesso às informações através de recursos de computação, controle de versão, treinamento de modelos, programação e implantação.

A Netflix criou o Metaflow para fornecer aos seus próprios cientistas e desenvolvedores de dados “uma API unificada para a pilha de infraestrutura necessária para executar projetos de ciência de dados, do protótipo à produção” e para “se concentrar na maior variedade de aplicações de aprendizado de máquina”.

Vale destacar que o Metaflow não favorece nenhuma estrutura específica de aprendizado de máquina ou biblioteca de ciência de dados. Cada vez que um projeto é executado, os dados gerados recebem um ID exclusivo, permitindo que o usuário acesse todas as execuções – e todas as etapas dessa execução – consultando o seu ID ou metadados.

A ferramenta também pode interagir facilmente com PyTorch, Tensorflow, SciKit Learn e outras bibliotecas Python para ciências de dados e aprendizado de máquina e é perfeitamente compatível com os serviços em nuvem fornecidos pela AWS.

A primeira versão pública do Metaflow, o Metaflow 2.0, carece de alguns dos recursos que a Netflix utiliza, como suporte à linguagem R ou processamento de dados por meio de DataFrames. Apesar disso, a gigante do streaming está disposta a disponibilizar essas funcionalidades se atrair suporte suficiente.

Fonte: CIO

Da coleta de dados à gestão estratégica em saúde

A Outcome Based Healthcare (OBH) é uma organização privada inglesa de propósito social com o compromisso de apoiar os sistemas de saúde na transformação e desenvolvimento de modelos de cuidados sustentáveis, desenvolvendo ferramentas que auxiliam a compreensão das populações atendidas e suas necessidades. Juliana Bersani, co-fundadora e COO da OBH, esteve no Brasil para o CONAHP e falou sobre os desafios para coleta de dados e sua utilização na gestão estratégica das instituições.

Juliana conta que os serviços de consultoria sustentam os produtos oferecidos pela OBH, que são uma plataforma de desfechos, uma biblioteca online e um segmentador populacional. O tipo de consultoria vai diferir de acordo com a maturidade do cliente, podendo variar da criação de um modelo de segmentação populacional a estudos populacionais para determinar quais serão os desfechos medidos.

“O modelo de segmentação que usamos é um modelo clínico. É baseado em codificação clínica, como CID-10 e outros. Depois da alocação das pessoas em grupos, começamos a olhar os determinantes sociais”, explica Juliana. De acordo com a OBH, a expectativa de vida pode ter uma diferença de até 19 anos entre grupos de pessoas dependendo das condições de moradia no Reino Unido, por exemplo. Entender os determinantes sociais é extremamente importante para que o trabalho da saúde fique integrado com as políticas públicas sociais.

Todo movimento entre os segmentos da população é estudado, como por exemplo o de pessoas com doença crônica indo para fases finais de vida, entrando em cuidados paliativos e consequentemente morrendo. O healthspan™ é outro indicador estudado pela OBH para entender o que faz com que pessoas saudáveis deixem de ser saudáveis. “O mais importante para o governo é o healthspan™, pois eles têm que se focar em manter as pessoas saudáveis pelo maior número de anos possíveis diminuindo a utilização de recursos [em saúde]”, complementa Juliana. Hoje o NHS é o principal cliente da OBH.

No Reino Unido a coleta de dados da população saudável só é possível graças a um sistema de atenção primária muito forte que atua como um gatekeeper para acessar outras áreas do sistema de saúde. Isso quer dizer que, se você nasceu ou reside no Reino Unido você obrigatoriamente é registrado com um general practitioner (GP), o equivalente a um médico de família. Desta forma, há dados suficientes para estudar tanto a população saudável como a doente.

Juliana conta sobre a reforma dos sistemas de saúde dos últimos anos no Reino Unido que culminou na criação de Integrated Care Systems (ICS), equivalente às Accountable Care Organizations (ACO) americanas, e acredita que sem um sistema integrado de dados, não é possível medição de valor em saúde. “Aqui no Brasil temos um foco muito grande no provedor, especialmente nos provedores de atenção terciária, os hospitais, e não temos a visibilidade do que acontece com um paciente do momento de seu nascimento ao momento de sua morte, como no Reino Unido”, enfatiza a COO.

Para o Brasil, Juliana considera que o foco na atenção primária e na prevenção são primordiais. Em seguida, fala sobre a cultura para preenchimento de dados em prontuário, que precisa ser reforçada entre os profissionais de saúde como algo mandatório. Ainda, defende a utilização de um código único para identificação do paciente, como por exemplo o CPF, o que seria essencial para obtenção de dados fidedignos.

Para finalizar, a COO reforça o cuidado necessário com empresas estrangeiras que trazem metodologias e produtos prontos para serem implementados no país. De acordo com Juliana, não é adequado que algo seja concretizado sem compreender e estudar o cenário atual do país, seja sua infraestrutura ou sua cultura.

Fonte: Saúde Business

Convênio entre USP e Tribunal de Justiça de SP aumenta eficiência na área jurídica

Universidade de São Paulo (USP) e o Tribunal de Justiça do Estado de São Paulo firmaram, nesta terça-feira (3), um convênio de cooperação científica e tecnológica para o desenvolvimento de ferramentas computacionais de apoio ao tratamento de dados jurídicos.

“O acordo é um marco porque coloca à disposição toda a pesquisa desenvolvida e o conhecimento acumulado pela universidade em benefício do Tribunal de Justiça e da sociedade”, salienta o reitor da USP, Vahan Agopyan.

Segundo o documento, serão apoiadas as atividades de pesquisa e desenvolvimento tecnológico em inteligência artificial aplicada à ciência de dados da área jurídica, com uso de algoritmos de aprendizagem de máquinas para o desenvolvimento de ferramentas computacionais na análise de documentos ou dados processuais.

Na USP, as atividades serão coordenadas pelo vice-diretor do Instituto de Ciências Matemáticas e de Computação (ICMC), André Carlos Ponce de Leon Ferreira de Carvalho, e pelo professor do Instituto de Matemática e Estatística (IME), João Eduardo Ferreira, que também ocupa o cargo de superintendente de Tecnologia da Informação da instituição de ensino.

Banco de dados

Entre os principais objetivos estão a criação de um banco de dados analítico com dados indexados a partir de documentos processuais e o desenvolvimento de uma ferramenta computacional baseada em big data para a análise de documentos e o aumento da eficiência da atividade jurisdicional.

“Essa celebração é importantíssima para que a Corte exerça sua responsabilidade social junto aos jurisdicionados e à coletividade e, também, para que a Universidade cumpra com a obrigação fundamental de se aproximar da sociedade. É uma parceria de duas das mais tradicionais instituições brasileiras que, agora, juntarão forças de trabalho e conhecimento em prol da população paulista e brasileira”, avalia o presidente do TJ, Manoel de Queiroz Pereira Calças, também professor na Faculdade de Direito da USP.

Fonte: Portal do Governo

84% das empresas brasileiras não estão preparadas para a LGPD

Segundo relatório da consultoria ICTS Protiviti, falta mapeamento de risco e plano de contenção de danos

POR ÉPOCA NEGÓCIOS ONLINE

Dados (Foto: Marcello Casal jr/Agência Brasil)

Grande parte das empresas ainda não adequaram suas regras à Lei Geral de Proteção de Dados (LGPD). A lei entra em vigor em agosto de 2020, mas 84% das companhias brasileiras, avaliadas pela consultoria  ICTS Protiviti, não estão preparadas paras as novas regras de privacidade de dados.

Segundo o relatório, apenas 12,5% das empresas afirmam ter feito mapeamento de risco de segurança da informação e proteção de dados – etapa primária para adequação à lei. Apenas 17,3% se dizem preparadas para fazer a gestão da privacidade de dados processados por seus fornecedores e terceiros.

O requisito mais adotado pelas empresas, de acordo com o relatório, é o desenvolvimento de políticas e normativos em relação aos cuidados da LGPD: 41,3% indicaram já terem produzido. Jefferson Kiyohara, especialista em LGPD e diretor da prática de compliance da ICTS Protiviti, explica que essa etapa é a que demanda menos esforço e as empresas precisam ir além para se adequarem à lei.

“Empresas com perfil ‘pioneiro’ ainda estão dando os primeiros passos”, diz. “Há ainda um grupo significativo de executivos e empresários que desconhecem a lei, bem como o potencial impacto aos seus negócios”.

órgão público precisará do consentimento do titular para usar seus dados – e o usuário pode retirar o consentimento quando quiser. Caso os responsáveis pela administração dos dados não se adequem às novas regras, podem ser multados em até 2% do faturamento, com o limite de R$ 50 milhões. A partir desta lei, o Brasil iguala-se a mais de 100 países que com norma sobre o assunto.

“A lei é condição para o Brasil seguir como participante de uma economia global”, afirma Kiyohara. “As empresas precisam investir em treinamento e conscientização de seus profissionais na realização de um diagnóstico, que abrange um inventário de dados pessoais, e no mapeamento de gaps para estar em conformidade com a LGPD.”

O relatório da ICTS Protiviti reuniu as informações durante agosto e novembro deste ano de 104 empresas, das quais 33% são de grande porte, 27,5% médias e 39,6% são micros e pequenas empresas. Os setores das organizações são variados, como varejo, construção, saúdeeducação, telecomunicação, tecnologia da informação, indústria, entre outros.

Fonte: Época NEGÓCIOS

A especialidade dos Bibliotecários de Dados na Ciência Aberta

No âmbito da pesquisa acadêmica, está ocorrendo uma transição histórica. Por um lado, há o avanço da ciência aberta como um novo modus operandi de projetar, executar e comunicar pesquisas. Por outro lado, uma nova dimensão da era da informação se manifesta no “big data“. A gestão de dados de pesquisa surge como um novo componente da comunicação científica que afeta pesquisadores e as instâncias de publicação, indexação e avaliação. Por outro lado, o volume de dados (data sets) e as estatísticas disponíveis já estão maiores do que nunca e continuam a aumentar. Estes avanços na esfera do conteúdo levaram à biblioteconomia e, mais especificamente, os bibliotecários enriquecem suas funções e perfil profissional no tratamento para o armazenamento, preservação, disseminação e uso de fontes de dados. Uma consequência imediata é o surgimento de bibliotecários de dados (data librarian) como uma nova especialidade que dá lugar ao surgimento de novas oportunidades de trabalho.

O assunto é novo. Tão novo que nos faz perguntar: qual é esta nova função dos bibliotecários em gerenciar dados de pesquisa? A importância e sua relevância são evidenciadas por uma simples consulta no Google Acadêmico com a expressão “data librarian” que resulta mais de 31 mil resultados publicados a partir de 2018. Quando nos referimos a data librarian, isso também inclui outras atividades relacionadas, como, por exemplo, data services librarian, data curation librarian, e research data management librarian.

Surgem, portanto, duas maneiras de vê-lo:

  • O que é um data librarian, o que ele faz.
  • Que coisas são estudadas e onde elas são estudadas?

Uma análise do mercado de trabalho nas bibliotecas acadêmicas dos EUA indica que a profissão do Bibliotecário de Dados é responsável por investigar e auxiliar na implementação de serviços de suporte das bibliotecas relacionadas à descrição, armazenamento e intercâmbio de metadados de pesquisa e conjuntos de dados.

A descrição das propostas de emprego indica as habilidades necessárias, bem como os critérios de seleção para estes cargos.

Competências do data librarian:

  • Dados e tecnologias geoespaciais;
  • Linguagens de programação;
  • Pacotes estatísticos (SPSS, Stata, SAS);
  • Gestão e preservação de dados;
  • Redação de solicitação de financiamento à pesquisa;
  • Gestão de projetos;
  • Pensamento crítico e resolução de problemas;
  • Empacotamento de dados, reutilização de dados, codificação de dados;
  • Repositórios institucionais e metadados;
  • Tecnologias on-line atuais;
  • Análise de dados qualitativos e quantitativos.

Critérios de seleção

  • Experiência em comunicação científica ou processos de pesquisa;
  • Experiência em planejamento, implementação e relatórios de informação;
  • Projetos ou serviços de pesquisa e gestão de dados;
  • Compreensão sólida dos requisitos para a gestão da informação durante a pesquisa;
  • Experiência em gestão da informação ou gestão de conteúdo, com conhecimento das tecnologias e padrões atuais, como repositórios institucionais, padrões de codificação (por exemplo, XML) e metadados;
  • Experiência no desenvolvimento de serviços de suporte, incluindo produtos on-line em gestão da informação ou uma área relacionada.

Para aprofundar o conceito, recomendamos a leitura do artigo “Os diferentes conselhos de dados de pesquisa na gestão de biblioteconomia de dados”1.

Onde se estuda

Apenas alguns dias atrás, em 7 de outubro de 2019, foi inaugurada a Research Data Management Librarian Academy (RDMLA). O RDMLA é um programa on-line gratuito para o desenvolvimento de habilidades profissionais de gestão de dados de pesquisa para bibliotecários, profissionais da informação, pesquisadores e outros profissionais que trabalham em um ambiente intensivo de pesquisa em todo o mundo.

Atualmente, o RDMLA está associado às nove instituições: Harvard Medical SchoolHarvard LibrarySimmons UniversityBoston UniversityBrown UniversityMassachusetts College of Pharmacy and Health SciencesNortheastern UniversityTufts University e Elsevier.

Os cursos são ministrados totalmente on-line, para a conveniência do interessado e são gratuitos. Além disso, o curso tem uma licença Creative Commons, permitindo a outras pessoas e instituições adaptá-lo e reutilizá-lo sem fins comerciais.

De acordo com a página do site, o curso inclui oito módulos que estarão disponíveis a partir de janeiro de 2020. No momento, está disponível apenas em inglês, mas eles buscam parcerias com outras instituições para criar uma versão multilíngue dos cursos.

  • Fundamentos de gestão de dados de pesquisa (research data management, RDM).
  • Navegação na cultura de dados de pesquisa.
  • Defender e comercializar o valor do RDM nas bibliotecas.
  • Lançamento de serviços de dados em bibliotecas.
  • Gestão e avaliação de projetos (em relação aos serviços de RDM)
  • Descrição geral das ferramentas de análise e visualização de dados.
  • Descrição geral das ferramentas de codificação.
  • Visão geral das ferramentas da plataforma (Open Science FrameworkMendeley Data e outros)

Nossa reflexão

A Rede SciELO inclui mais de 1.200 periódicos ativos em 17 países que aderiram à filosofia do Acesso Aberto e, progressivamente, estão sendo incorporados à Ciência Aberta. A Rede compreende centenas de instituições que possuem bibliotecas acadêmicas para apoiar a pesquisa e muitas delas também dão suporte editorial a estes periódicos. Na medida em que o SciELO esteja promovendo o alinhamento de periódicos com a ciência aberta, seguindo políticas internacionais e nacionais, certamente haverá uma demanda muito grande por bibliotecários de dados nos países da Rede no curto prazo. Seria de valor estratégico que os cursos de biblioteconomia ministrados nestes países reforcem seu currículo com objetivos semelhantes aos ministrados no RDMLA.

Notas

1. SEMELER, A.R. and PINTO, A.L. Os diferentes conceitos de dados de pesquisa na abordagem da biblioteconomia de dados. Ciência da Informação. 2019, vol. 48, no. 1, ISSN: 1518-8353 [viewed 30 October 2019]. Available from: http://revista.ibict.br/ciinf/article/view/4461

Referências

CARPENTER, T.A. A New Academy to Train Librarians and Researchers about Data Management Has Launched. RDMLA Answers Our Questions [on-line]. The Scholarly Kitchen, 2019 [viewed 30 October 2019]. Available from: https://scholarlykitchen.sspnet.org/2019/10/15/a-new-academy-to-train-librarians-about-research-data-management/?informz=1

KHAN, H.R., DU, Y. (2018). What is a Data Librarian?: A Content Analysis of Job Advertisements for Data Librarians in the United States Academic Libraries. In: IFLA WLIC 2018, Kuala Lumpur, 2018 [viewed 30 October 2019]. Available from: http://library.ifla.org/2255/

PACKER, A.L. and SANTOS, S. Ciência aberta e o novo modus operandi de comunicar pesquisa – Parte I [on-line]. SciELO em Perspectiva, 2019 [viewed 30 October 2019]. Available from: https://blog.scielo.org/blog/2019/08/01/ciencia-aberta-e-o-novo-modus-operandi-de-comunicar-pesquisa-parte-i/

SEMELER, A.R. and PINTO, A.L. Os diferentes conceitos de dados de pesquisa na abordagem da biblioteconomia de dados. Ciência da Informação. 2019, vol. 48, no. 1, ISSN: 1518-8353 [viewed 30 October 2019]. Available from: http://revista.ibict.br/ciinf/article/view/4461

Link externos

Research Data Management Librarian Academy (RDMLA) https://rdmla.github.io/

Sobre Ernesto Spinak

Colaborador do SciELO, engenheiro de Sistemas e licenciado em Biblioteconomia, com diploma de Estudos Avançados pela Universitat Oberta de Catalunya e Mestre em “Sociedad de la Información” pela Universidad Oberta de Catalunya, Barcelona – Espanha. Atualmente tem uma empresa de consultoria que atende a 14 instituições do governo e universidades do Uruguai com projetos de informação.

Traduzido do original em espanhol por Lilian Nassi-Calò.
 
Como citar este post [ISO 690/2010]:
SPINAK, E. A especialidade dos Bibliotecários de Dados na Ciência Aberta [online]. SciELO em Perspectiva, 2019 [viewed 11 November 2019]. Available from: https://blog.scielo.org/blog/2019/11/01/a-especialidade-bibliotecarios-de-dados-na-ciencia-aberta/

Fonte: SciELO

“Não temos consciência da quantidade de dados que damos ao celular mesmo sem tocá-lo”

Advogada Paloma Llaneza explica que apagar aplicativos como Facebook e WhatsApp é a única forma de evitar que eles colham nossos dados

ISABEL RUBIO

Paloma Llaneza, advogada e autora de ‘Datanomics’, durante a entrevista.
Paloma Llaneza, advogada e autora de ‘Datanomics’, durante a entrevista.LUIS SEVILLANO

Paloma Llaneza (Madri, 1965) foi uma das primeiras usuárias do Facebook. Mas essa advogada especializada em proteção de dados apagou sua conta ao ver como a rede social funcionava e quais informações colhia sobre ela. No dia em que a empresa de Mark Zuckerberg comprou o WhatsApp, ela também desinstalou esse serviço de mensagens instantâneas do seu celular. E enviou um comunicado a todos os seus contatos: “O Facebook adquiriu o WhatsApp e o adquiriu pelos usuários, adquiriu-o pelos dados de vocês. Vou embora”.

“Os dados são valiosos porque dizem muitíssimo sobre nós, e somos potenciais eleitores, potenciais compradores e potenciais solicitantes de serviços de transporte, saúde, educação e crédito. O mundo gira ao redor de nossas necessidades. Quanto melhor eu te conhecer, melhor serei capaz de te vender o que acho que você precisa, mesmo que você ainda não ache que precise, e de negar o que você pede”, diz ela numa entrevista ao EL PAÍS. Llaneza, que também é auditora de sistemas e consultora em segurança digital, acaba de publicar na Espanha a obra Datanomics, em que explica o que as empresas tecnológicas fazem com nossos dados pessoais.

O custo de manter instalados aplicativos como Facebook, WhatsApp e Instagram “é muito alto”: “No dia em que o WhatsApp falar de tudo o que lhe falamos, o mundo acaba”. Os gigantes tecnológicos chegam a conhecer o usuário melhor que alguns pais, cônjuges ou mesmo que o próprio indivíduo. “O que mais nos diz sobre um ser humano é aquilo que ele oculta de si mesmo: sua parte emocional. As redes sociais permitem saber qual é seu estado de ânimo em tempo real, se você está sofrendo por amor ou procurando medicação para os nervos, se tem depressão, se abusa do álcool, se sai muito ou se a música que você escuta indica uma tendência ao suicídio ou uma melancolia transitória que é parte do seu caráter”, diz a advogada.

O Facebook analisou dados de mais de seis milhões de adolescentes australianos e neozelandeses para determinar seu estado de ânimo e fornecer informação aos anunciantes sobre os momentos em que se sentiam mais vulneráveis, segundo um documento da companhia na Austrália vazado em 2017 pelo jornal The Australian. Ao saber como uma pessoa é e como se sente a cada instante, as empresas podem lhe vender no momento oportuno “algo de que necessite emocionalmente”: “Uma ideia, um pensamento, um partido político, um modo de vida ou mesmo um sentimento de superioridade nacional”. “Isto, que é preocupante, funcionou muito bem no Brexit, na eleição de Trump e em algumas eleições recentes na Espanha”, afirma Llaneza.

Como evitar a coleta dos nossos dados

Para evitar que as companhias tecnológicas reúnam dados sobre nós, Llaneza afirma que a única solução é apagar seus aplicativos: “Não há um conselho intermediário, tanto faz compartilhar mais ou menos publicações”. “A parametrização de privacidade do Facebook está pensada para terceiros, mas o Facebook vê tudo e guarda até seus arrependimentos, inclusive aquela mensagem que você ia mandar desancando alguém e que depois decidiu cancelar. Porque um arrependimento diz muito mais a seu respeito do que aquilo que você envia”, explica. Fazer um uso menos intensivo desses aplicativos não serviria, segundo Llaneza, porque “eles têm um monte de permissões para acessar o seu celular”: “Inclusive pela maneira como você mexe no celular e digita, eles têm uma impressão biométrica sua que lhe identifica com um alto grau de probabilidade”.

Os dispositivos e aplicativos são pensados para serem “usáveis, maneiros e altamente aditivos”. O problema é que a percepção do risco entre os usuários “é muito baixa”: “Ninguém está consciente da quantidade brutal de informação que você dá a um celular mesmo sem tocá-lo”. “Ter um celular ou a Alexa em cima da mesa da sua casa lhe parece a coisa mais normal, e, entretanto, você não teria um senhor sentado na sala da sua casa todos os dias observando como você fala ou vendo como é seu lanche. É muito mais perigoso ter a Alexa em cima da mesa do que esse senhor, que tem uma memória humana e vai esquecer metade do que ouvir”, conclui Llaneza.

COMO AS EMPRESAS RENTABILIZAM OS DADOS

As companhias rentabilizam os dados de seus usuários “à base de vender a publicidade direcionada e de gerar outros negócios ao redor dessa informação”. Enquanto na Europa há uma regulação “mais ou menos rigorosa”, nos EUA “o fato de você receber uma pena mais ou menos grave, ter acesso a diferentes universidades ou ser rejeitado ao solicitar um crédito, um seguro ou um serviço médico dependerá dos dados tratados sobre você”. Por que, apesar de nunca ter deixado de pagar uma dívida, podem lhe negar um crédito? “Porque os novos sistemas são preditivos e não analisam o passado, mas sim leem o futuro”, afirma Llaneza. Se um modelo predisser, por exemplo, que alguém tem uma alta probabilidade de se divorciar e sua capacidade econômica baixará, é possível que não lhe concedam uma hipoteca.

O uso desses sistemas acarreta um risco, já que os dados com os quais os algoritmos são treinados estão condicionados por nossos conhecimentos e preconceitos. Além disso, as máquinas às vezes terminam sendo uma caixa-preta que torna impossível entender qual caminho o modelo seguiu até chegar a determinada conclusão: “Uma das grandes questões que temos à nossa frente é a transparência algorítmica. Você tomou uma decisão: por que e como?”. “A propriedade de dados já está regulada. O que agora devemos regular é o controle sobre o resultado do tratamento sobre esses dados”, afirma a advogada.

Fonte: EL PAÍS

Entrevista: coordenador fala sobre o Enancib 2019


A 20a edição do Encontro Nacional de Pesquisa em Ciência da Informação (Enancib), principal evento da área no Brasil, aconteceu entre os dias 21 e 25 de outubro na Ponta das Canas, em Florianópolis. É a terceira vez que a cidade sedia o Encontro. Foram cerca de 750 inscritos e 810 trabalhos submetidos, dos quais 452 foram aceitos pela comissão.

O coordenador do Enancib 2019 concedeu uma entrevista para o blog Dissertação Sobre Divulgação Científica. O professor Adilson Luiz Pinto, coordenador do Programa de Pós-Graduação em Ciência da Informação da Universidade Federal de Santa Catarina (UFSC), falou sobre os desafios de organizar um evento desse porte em tempos de dificuldades para a ciência.

Para ele, o Enancib é fundamental para a área, mas tem perdido importância em relação aos indicadores oficiais de avaliação. “Nos dois últimos anos, as produções do Enancib praticamente não deram pontuações. Eu acho que deveria valer pelo menos o equivalente a uma revista B1 no antigo estrato”.

Adilson também enfatizou a necessidade de a universidade pública reforçar as interações sociais e comunitárias, inclusive através da divulgação científica, defendeu formas alternativas de publicação de pesquisas, como a utilização de vídeos, e comentou sobre o papel da Ciência da Informação frente às fake news, um dos principais temas e desafios da sociedade contemporânea.

Confira esses e outros tópicos da entrevista!

Como foi a organização do Enancib?

Esse ano, nós organizamos o Enancib com a participação de um grupo de aproximadamente 50 pessoas, incluindo alunos de pós-graduação e voluntários da graduação. A gente dividiu algumas linhas de trabalho, que foram as principais frentes da coordenação para o Enancib.

Uma delas foi o espaço físico. Tivemos um trabalho duro para encontrar o local de realização do evento. Tentamos realizar na UFSC, mas infelizmente não foi possível. No centro de eventos não há estrutura para comportar um evento do porte do Enancib. Então, preferimos fazer em local fora da UFSC para não reduzir a qualidade em relação aos últimos dois ou três Enancib’s.

Outra frente foi a de locomoção, já que o local de realização foi na praia Ponta das Canas, que fica há 20 km da Universidade. Tivemos que pensar e organizar uma logística para levar os alunos, principalmente os da graduação porque os da pós-graduação conseguiram se articular.

Também tivemos que pensar na distribuição de kits que foram entregues, especialmente aos autores das teses e dissertações premiadas. Outros grupos se dedicaram a organizar o jantar, que foi por adesão, e aos serviços de hotelaria. Houve também uma equipe só para os trabalhos de mídia e divulgação, atuando no nosso site e em todas as principais redes sociais.

Como funcionou a estrutura para organizar o Enancib em 2019?

O Enancib, especificamente, não é vantajoso para quem organiza porque exige gastos altos e complexos. Gastos como passagens e hospedagem de coordenadores de Grupos de Trabalhos (GT’s) requerem um equilíbrio econômico nem sempre fácil de obter, ainda mais em ano em que não há recurso disponível. Nesses períodos, temos que usar muito mais a criatividade. Cada um dos participantes da comissão regional teve que buscar recursos dentro das próprias universidades.

Nós não conseguimos incentivos das agências de fomento, mesmo sendo contemplados por um edital. Fizemos tudo por conta própria, só com os valores das inscrições. Não aconselho a nenhuma outra organização de evento da Ciência da Informação a fazer dessa forma. É muito difícil. Realizamos esse Enancib com a cara e a coragem, tentando reduzir custos, mas sem  perder a qualidade.

As pessoas que organizam o Enancib, fazem muito mais por amor à camisa e à área. Nós conseguimos realizar o Enancib sem prejuízo porque foi em Florianópolis. Se fosse em outra cidade sem tanto apelo turístico, não daria para fazer só com inscrição.

O coffee break, por exemplo, deve ser de qualidade, porque é um momento fundamental para trocas de informações e formação de parcerias. Então, é um momento que precisa ser o mais agradável possível.

O tema do Enancib de 2019 foi “Ciência da Informação e a era da ciência de dados”. Por quê?

Os dados são extremamente importantes para tudo na vida. Em eventos anteriores, o tema dos dados foi apresentado de forma fragmentada, não foi apresentado como um ponto central da Ciência da Informação. Além disso, o nosso programa aqui da UFSC tem vários pesquisadores que trabalham com tecnologia. A própria reformulação do programa, há cerca de cinco anos, já teve foco nos dados: como utilizá-los, reutilizá-los, a forma como são minerados, tratados, filtrados etc.

Então, a gente já vem discutindo isso em relação à gestão da informação e à organização e representação do conhecimento, assim como o dado dentro das competências informacionais e das profissões.

O tema dos dados ganhou tanto fôlego e importância, que tem implicações diretas em praticamente todos os âmbitos da nossa vida. Em relação à política e às eleições, é possível, através do tratamento de dados, praticamente predizer quem vai ser eleito.

É o momento de a Ciência da Informação chamar a responsabilidade para si e explorar melhor o tema dos dados. Todas as revistas e eventos internacionais importantes tratam sobre esse tema. Por que não explorá-lo no Brasil, também?

Como foi composta  e escolhida a programação, incluindo os temas das atividades?

Desde o ano passado, quando a gente solicitou a organização do evento, deixamos em aberto para qualquer pessoa com interesse em promover curso ou qualquer outra atividade enviar a proposta para análise.

Em relação aos workshops, que antes estavam inseridos nos “eventos pós-Enancib” e agora estão em “eventos do Enancib”, tivemos sete atividades. Também sediamos o 9° Encontro Nacional de Educação em Ciência da Informação e o Congresso Internacional em Tecnologia e Organização da informação, este englobou o 5° Simpósio Brasileiro de Ética da Informação.

Destaco, também, um workshop sobre ciência policial, realizado pela Polícia Federal. O nosso programa aqui na UFSC tem 24 mestrandos que são agentes da Polícia Federal, com a qual mantemos projetos relacionados à Gestão da Informação e Tecnologias de Informação.

Outras atrações foram o 1º primeiro Seminário Internacional de Competências em Informação e o 3º Seminário de Pesquisas e Práticas sobre Competência em Informação de Santa Catarina. Outros workshops abordaram a Co-criação de Valor em Unidades de Informação e a Engenharia e Ciências de Dados, que é mais ou menos uma tentativa de mostrar ações da Ciência da Informação na área de indústria tecnológica.

O Enancib completou 20 anos em 2019, período em que foi sediado três vezes em Florianópolis. Como você avalia o desenvolvimento do Encontro ao longo dessas décadas?

Eu já participo do Enancib desde 2007, sempre com alguma pesquisa publicada. As discussões e os temas, geralmente, acompanham assuntos e acontecimentos internacionais relacionados à competência da Ciência da Informação. O Enancib não é um ponto fora da curva dos outros eventos internacionais. Para se ter uma ideia, eu fui ao evento da ISKO, no qual boa parte das discussões envolvia os dados, tema do nosso Encontro esse ano.

O Enancib já teve mais importância para a Ciência da Informação. Quando surgiram os primeiros sistemas do Qualis, o Encontro era classificado como artigo A1. O evento era muito valorizado. Com o tempo, houve enfraquecimento do Enancib, em termos de pontuação para a área.

Até a última avaliação da Capes, o Enancib era avaliado como B1. A partir de 2017 para cá, não há possibilidade de pontuação do Enancib. A política tem sido valorizar as revistas. Para a nossa área, especificamente, isso tem bem menos representatividade. Na nova proposta, nenhuma revista A1 é da Ciência da Informação e nem da Comunicação. É possível que não tenhamos desenvolvimento da área nos próximos anos, com a redução das reflexões.

Nos dois últimos anos, as produções do Enancib praticamente não deram pontuações. Eu acho que deveria valer pelo menos ao equivalente a uma revista B1 no antigo estrato. No evento surgem trabalhos extremamente importantes. Eu sempre cito como exemplo um dos artigos da professora Marisa Bräscher, aqui da UFSC, publicado no Encontro, que hoje tem mais de cem citações.

Se você fizer uma busca no Publish or Perish com o termo “Enancib”, você vai encontrar artigos com mais de 50 citações. Ou seja, o Enancib é um evento muito bom para a produtividade e as reflexões da área. Alguns trabalhos do Enancib têm mais citações do que muitas revistas A1 do estrato anterior. Eu acho que seria muito pertinente a criação de um Qualis específico para eventos, justamente pensando na valorização do Enancib, no ISKO e em outros eventos relevantes, o que seria um estímulo fundamental para pesquisadores participarem desses eventos.

O Enancib é fundamental para todos os estágios da academia, desde o aluno que está iniciando o mestrado até o pesquisador já em estágio avançado na carreira, passando pelo pós-graduando já mais maduro no doutorado. Eu acho, inclusive, que o Enancib deveria contemplar os alunos de iniciação científica. É o maior evento que a gente tem no Brasil, e deve ser valorizado.

Como a realidade da ciência hoje em dia tem afetado a Ciência da Informação, desde os programas até as bolsas e os periódicos?

Boa parte do que as universidades conseguem fazer hoje é em parceria com outras instituições também da esfera pública, tanto para custear pesquisas quanto para viagens para apresentação dos trabalhos, entre outras finalidades.

Há pouco tempo a UFSC dispunha de 45 milhões de reais para todos os custeios. Hoje o valor é de 4,5 milhões. Isso dificulta a própria realização de pesquisas e eventos. Essa realidade se manifesta, inclusive, na organização do Enancib, como dificuldade para arcar passagens, materiais de divulgação etc.

Nesse sentido, é importante a gente mostrar para a sociedade o que é e o que representa a universidade. Fazemos educação, pesquisa, promovemos ações comunitárias, criamos, desenvolvemos e difundimos tecnologias. A UFSC é a quinta melhor instituição de ensino federal brasileira. Somos a melhor instituição em termos de ciência citada. Temos uma internacionalização bem consolidada, uma produtividade científica bem sólida.

O país deve valorizar e investir nas universidades públicas, que realizam mais de 90% das pesquisas no país e criam muitos serviços e produtos incorporados por indústrias e pela população em geral. O volume de trabalho e a prestação de serviços da universidade para a sociedade é enorme.

Um professor chega a ficar 90 horas por semana na universidade, porque a gente não dá só aula. Fazemos pesquisa, extensão, temos monitoria, uma infinidade de tarefas.

Muita gente não conhece o que a gente faz aqui. É muito importante a universidade integrar as pessoas, ter trabalhos de comunicação que mostrem o que fazemos. Eu gostaria que a imprensa tradicional dedicasse mais espaço e tempo para mostrar as nossas pesquisas e outros trabalhos de ciência, tecnologia, inovação e da educação. A universidade pública deve ser interpretada como um grande valor, como importante patrimônio para a sociedade brasileira.

Mais do que nunca as universidades públicas devem investir na divulgação científica, então … 

Sem dúvida. A Universidade perde bastante espaço quando não mostra diretamente para a sociedade tudo o que produz. Poderíamos trabalhar mais próximos, por exemplo, dos ensinos básico e secundário, principalmente formando parcerias com outras instituições públicas de ensino. Uma possibilidade é realizar visitas periódicas de estudantes nos nossos laboratórios e outros ambientes de ensino e pesquisa. Isso dá familiaridade com o contexto da ciência, tecnologia, inovação e com a educação, amadurece intelectualmente. É até mesmo um chamado para que os estudantes venham fazer os nossos cursos.

É verdade que há muitas iniciativas importantes e produtivas de divulgação científica, mas em geral são trabalhos isolados. É necessário, inclusive, que pesquisadores estejam antenados com as novidades da comunicação digital e com a linguagem audiovisual, o que inclui o Youtube e outras redes.

O nosso modelo de comunicação na academia é muito tradicional, é o mesmo padrão desde 1665, quando surgiram as revistas científicas. Só mudou o formato, mas é a mesma representação do impresso. Não houve evolução. Por exemplo, a gente não consegue colocar nessas revistas outras atividades e outras formas de ver e interpretar a ciência. Por que a metodologia de uma pesquisa não pode ser gravada? Pode facilitar a compreensão  e a reprodução do processo.

Quando a gente precisa mexer em qualquer equipamento eletrônico e não sabe como, nós em geral pesquisamos todo o manual ou vamos direto ao Youtube assistir aos vídeos? Qual opção é mais prática e usual?

Imagina vídeos curtos em que estudantes e pesquisadores explicam o desenvolvimento dos dados trabalhados no artigo, como se deu cada passo metodológico … não tem como não validar um trabalho assim. Algumas áreas começaram a realizar divulgações nesse modelo. A Plos One, por exemplo, já publicou parte de artigos em vídeos.

Então, a divulgação científica é prejudicada quando utilizamos linguajar inadequado, no sentido de não ser familiar e de fácil acesso a quem não é da academia. Precisamos rever a comunicação e a divulgação científicas. Não aproveitamos bem as oportunidades tecnológicas do nosso tempo, que estão aí acessíveis.

Pior, quando aparece um pesquisador competente em divulgação, ele é visto com distanciamento, tem pouca recepção do meio acadêmico tradicional. O trabalho de comunicação desse pesquisador e divulgador não é bem aceito, o que é um grande desestímulo. Mas, se quisermos aumentar o espaço na sociedade e a importância da universidade na percepção pública, temos que saber divulgar, informar, ouvir e interagir.

Qual é o impacto da altmetria para os chamados indicadores métricos tradicionais, que é o seu campo de estudo?

Eu não gosto de dar nomes específicos para cada um dos tipos de estudos métricos, porque um campo acaba interferindo em outros.

Na verdade, há uma infinidade de métricas aplicadas a qualquer área do conhecimento. A infometria trabalha exclusivamente com a recuperação da informação. O foco são palavras, buscadores, terminologias. A bibliometria se dedica à quantificação da informação bibliográfica. Há muita confusão sobre a bibliometria como termo referente à biblioteca. Uma coisa não tem nada a ver com a outra.  Ela é específica para informação bibliográfica.

Há, também, as métricas voltadas para as unidades de informação, que são a arquivometria e a biblioteconometria. A cienciometria é dedicada a disciplinas, a áreas do conhecimento e com indicadores do desenvolvimento científico de um país. Já a sociometria dá base para a gente fazer análises das relações e estruturas sociais, trabalhando com dinâmicas de grupo, teoria de Gestalt.

Recentemente surgiu a altmetria, que eu considero uma evolução da webometria, que por sua vez trabalha com o impacto na web. O problema é que a gente confunde muito a webometria como um termo para analisar revistas, e não é só isso. A webometria lida muito mais com as menções que você recebe e as menções que direciona a outros sites. Então, basicamente é link de entrada e de saída.

O diferencial da webometria é que ela ganhou muitos espaços em indicadores, em rankings. Surgiram muitos rankings que trabalham com o impacto da informação científica na rede. Mas, rankings também apresentam tendências em favor de determinada instituição ou país. Mesmo porque as bases que eles utilizam são bases regionais, não nacionais. Por exemplo, a Web of Science é base regional americana, é baseada nas revistas dos Estados Unidos.

A altmetria veio para tentar pegar o gancho com alguns indicadores que a gente não consegue captar, como de onde vem o acesso, quantos downloads foram feitos, quantas visitas a página recebeu, quais menções foram feitas dentro de um link para o outro etc.

Há revistas que estão lançando números especiais com os artigos que mais ganham curtidas. Recentemente publicamos um trabalho na revista Journal of Librarianship and Information Science. Antes mesmo de lançar o artigo, eles lançaram uma versão inicial da pesquisa que teve mais de mil acessos. A partir daí nós fomos convidados para publicar outro artigo no periódico.

Então, algumas revistas já estão usando isso como parâmetro para, por exemplo, montar números especiais, para saber o que o público está consumindo, onde está consumindo. O legal disso, da altmeltria, é que não lida só dados científicos, são dados de acessibilidade da revista e de artigos que realmente têm impacto na sociedade.

Antes, a gente fazia isso com a cienciometria, agora a gente já consegue fazer isso em tempo real. Alguns artigos são citados antes mesmo de ter a publicação com número e volume. Simplesmente é colocado no site e já é citado, inserindo o endereço como parâmetro informativo.

Você havia comentado sobre a centralidade das fake news hoje em dia. Como a Ciência da Informação deve lidar com esse tema?

Esse é um tema para o qual o profissional da informação deve estar atento, preparado para entender e lidar com esse fenômeno. É um tópico fundamental para as atividades e os desafios do bibliotecário, do arquivista, jornalista, enfim, de todos relacionados à Ciência da Informação.

A International Federation of Library Associations and Institutions (IFLA) tem um canal a partir do qual as pessoas fazem pesquisas para saber se determinada informação ou notícia é ou não fake news.

Nós poderíamos criar um canal com propósitos semelhantes. Isso é fundamental. Eu faço parte de vários grupos relacionados à Ciência da Informação, e frequentemente nos deparamos com fake news difundidas por algum professor. Não é por má-fé, mas sim porque acredita em determinada informação e a reproduz.

É papel da Ciência da Informação encabeçar uma campanha de repúdio às fake news. É uma postura que seria importante para a área nos próximos anos.

Fonte: Dissertação Sobre divulgação científica

Seminário de gestão arquivística discute impacto da proteção de dados pessoais

Da Comunicação Interna

O Senado abriu na manhã de quarta-feira (23) o Seminário Gestão Arquivística de Documentos do Legislativo Federal 2019. Focado na Lei Geral de Proteção de Dados Pessoais (Lei 13.709, de 2018) e seu impacto nos arquivos, o evento debateu os desafios enfrentados por arquivistas e instituições na guarda dos direitos de privacidade e na oferta adequada de informações públicas. O seminário, que ocorre no Senado e na Câmara, é promovido pela Associação de Secretários-Gerais dos Parlamentos de Língua Portuguesa.

A diretora-geral do Senado, Ilana Trombka, afirmou que o encontro ocorre numa data próxima a dois acontecimentos importantes: o Dia do Arquivista, celebrado em 20 de outubro, e o Dia do Servidor Público, no próximo dia 28. Ilana destacou que seria oportuno fazer uma reflexão sobre o papel do arquivista como servidor público, cuja missão possui especificidades peculiares quando comparada a organizações privadas.

— O que se agrega nessa função ao resolvermos trilhar uma carreira no serviço público? Não é a mesma coisa do que ser arquivista em outra organização. E o que devemos fazer com as informações que circulam e como tornar públicas as informações que assim devem ser? Tornar público não é apenas colocar à disposição das pessoas, mas sim deixá-las atraentes e também de fácil linguagem.

Ilana disse ainda que é preciso discernir o que deve e o que não deve ser público. De acordo com ela, isso representa um dos principais “dilemas” quando o assunto é gestão da informação.

— E o dilema não é só o registro e a classificação da informação. Os desafios nessa área são muito amplos e globais. Por isso, faz todo sentido que discutamos não apenas no âmbito do Brasil, mas também dos países de língua portuguesa. Ainda há outro fator: falamos de uma lei que rege o território nacional, mas o fluxo de informações não respeita essa fronteira — concluiu.

O documentalista da Assembleia Nacional da Guiné-Bissau Fonseca Nanque destacou a importância do arquivo como elemento fundamental para desvendar o passado.

— O arquivo é o elemento-chave para as pessoas saberem o que aconteceu no passado, como o presente está e as medidas que devem ser tomadas para evitar o mal, que é o que a sociedade está vivendo hoje.

O diretor do Centro de Documentação e Informação da Câmara, André Freire, ressaltou a satisfação de debater um tema tão fundamental e que tem impacto direto no funcionamento dos arquivos.

— Ao mesmo tempo em que é necessário garantir a transparência, também é importante oferecer a proteção dos dados pessoais do cidadão que interage no setor público. É um grande desafio e que deve ser alcançado de forma cuidadosa — concluiu.

Fonte: Agência Senado

I Encontro de Gestão e Preservação de Dados de Pesquisa em Humanidades

Será realizado nos dias 25 e 26 de setembro, o I Encontro de Gestão e Preservação de Dados de Pesquisa em Humanidades. O evento acontecerá no Arquivo Nacional e na Fundação Getúlio Vargas – FGV e contará com mesas de debates e workshops.

O crescente interesse pelos dados coletados ou gerados pelas atividades de pesquisa na última década criou uma demanda por estruturas organizacionais, tecnológicas e por capital humano que pudessem dar conta da gestão, sustentabilidade e utilização ampla desses novos ativos informacionais. Estudos, pesquisas, bem como o desenvolvimento de infraestruturas de apoio à gestão de dados de pesquisa no Brasil, em um primeiro momento, tiveram maior interesse por pesquisadores de áreas de exatas, ambientais e saúde.

No entanto, pesquisadores das áreas de ciências sociais e humanas, neste momento também começam a se preocupar com a preservação de seus dados e a vislumbrar possibilidades de reuso desses dados.  Por esta razão, a comunidade de interesse na temática “Dados de pesquisa” entende que é essencial trazer também para o âmbito das ciências sociais e das humanidades essa discussão, considerando principalmente as peculiaridades desses dados que precisarão de tratamentos e normas de uso e reuso diferentes dos adotados pelos dados gerados em outros domínios do conhecimento.

O “I Encontro de Gestão e Preservação de Dados de Pesquisa em Humanidades” é organizado pelo Arquivo Nacional, a FGV e o Instituto Brasileiro de Informação em Ciência e Tecnologia – Ibict, tem por objetivo criar uma discussão entre os atores que lidam com dados de pesquisa em humanas e ciências sociais e propor uma rede de gestão e preservação de dados de pesquisa que considerem princípios FAIR em sua organização.

Faça sua inscrição aqui.
 
PROGRAMAÇÃO:
25/09 (quarta-feira) – mesas de debates – 9h às 18h – Local: Arquivo Nacional (Praça da República, 173 – Centro – RJ)
Dia 26/09 (quinta-feira) – workshops:
Manhã: Curadoria de Dados de pesquisa (Jonathan Crabtree – ODUM Institute) – 9h às 12h l Local: FGV (Praia de Botafogo, 190, 10º andar, Sala 1027 – Botafogo – RJ)
Tarde: Implementação de Dataverse para Gestão e curadoria de dados de pesquisa: (Miguel Arellano) – 14h às 18h l Local: FGV (Praia de Botafogo, 190, 10º andar, Sala 1027 – Botafogo – RJ)

Google abre biblioteca para cientistas de dados protegerem privacidade

Companhia tornou open source sua biblioteca de privacidade diferencial. Gerente de produto de Privacidade explica como funciona a ferramenta

Por Carla Matsu

Foto: Shutterstock

Google anunciou nesta quinta-feira (5/9) que está tornando pública sua biblioteca de privacidade diferencial. A biblioteca reúne ferramentas que a gigante de Mountain View vem desenvolvendo nos últimos anos para extrair informações e contexto de dados anonimizados de usuários.

A privacidade diferencial permite que empresas e organizações obtenham informações e ideias sem que os donos dos dados sejam identificados. Para jogar um pouco de luz à tecnologia, em entrevista à Computerworld BrasilMiguel Guevara, gerente de produto do Google na área de privacidade, explica que a ferramenta é utilizada internamente para recursos do Google Maps. Um dos exemplos é o uso da biblioteca para determinar os horários de pico de um restaurante quando um cliente o busca no Maps e ainda procura conhecer os pratos favoritos de um local.

De acordo com o Google, a biblioteca de privacidade diferencial lançada hoje é a mesma utilizada pela empresa internamente. Sua disponibilidade é gratuita para qualquer entidade ou pessoa interessada em usá-la.

Ao tornar open source a biblioteca, o Google diz que espera facilitar e democratizar as estratégias de análises de dados não só de empresas e empreendedores, mas de organizações não governamentais e de governos. “É muito caro desenvolver produtos de privacidade. A gente demorou dois anos. E imagine que você é uma empresa e precisa compartilhar dados e estatísticas e, na maioria dos casos, os engenheiros de software não têm dois anos para desenvolver algo assim. Nosso objetivo é que mais organizações tenham acesso a essa tecnologia sem ter de pagar os custos de se ter uma equipe especializada”, resume Guevara.

Segundo o desenvolvedor, a biblioteca foi construída para ser fácil de se utilizar. “Para cientistas de dados é muito fácil. A única coisa que precisam é baixar a biblioteca e usar no computador deles, do mesmo jeito que fazem as operações do dia a dia”, explica.

Privacidade diferencial na prática

A medida que empresas e governos se debruçam sobre dados extraídos de aplicações online, eles têm em mãos o potencial valioso de conhecer melhor seus clientes e populações e, consequentemente, tornar produtos e serviços mais eficientes. Entretanto, a privacidade é o grande calcanhar de Aquiles quando se fala em dados. Ao anonimizá-los, as organizações podem extrair valor dessas informações sem a inquietante preocupação de expor usuários.

“No nível mais abstrato, qualquer organização que tem dados pode usar esta biblioteca. Imagine que o governo quer compartilhar dados sobre qualidade dos hospitais comparando quanto o paciente passa tempo em um hospital. Assim, você pode imaginar que se pacientes esperam mais tempo em um hospital do que em outro, talvez aquele não seja tão bom”, exemplifica Guevara.

Outro exemplo do uso da biblioteca poderia ser encontrado no planejamento urbano das cidades. “Um urbanista, muitas vezes, precisa saber como a população se movimenta na cidade. Esta informação é importante para planejar a cidade. E esses dados são sensíveis ao mesmo tempo, pois dizem respeito onde as pessoas moram, trabalham. É um bom exemplo do valor da privacidade diferencial, pois esses dados têm valor social e ao mesmo tempo são sensíveis por natureza. E a privacidade diferencial ajuda a encontrar um equilíbrio entre a utilidade e a privacidade dos dados”, complementa.

O Google também garante que, além de incluir um amplo conjunto de testes, a biblioteca inclui o que chama de “Stochastic Differential Privacy Model Checker”. “Para explicar de forma resumida, essa característica ajuda a assegurar a correção das informações e a evitar erros”, explica a companhia. Há ainda uma extensão PostgreSQL e também receitas comuns para quem está começando a adotar a ferramenta.

Além da biblioteca de privacidade diferencial, o Google tornou recentemente uma versão open-source da Privacidade Tensorflow, que permite a desenvolvedores da ferramenta treinar modelos privados de forma diferencial.

Fonte: IT MIDIA

Um ano para a LGPD: seu negócio está preparado?

Passou rápido: já faz quase um ano que foi sancionada a Lei 13.709, conhecida como Lei Geral de Proteção de Dados Pessoais (LGPD). Isso significa que também falta exatamente um ano para chegar ao fim o prazo para as empresas brasileiras se adaptarem à nova legislação.

A partir de agosto de 2020, organizações que possuam em suas bases de dados informações de clientes — mesmo que sejam só nome e e-mail — devem entrar na linha traçada pela LGPD. Caso contrário, podem ser punidas com multa de até R$ 50 milhões.

Inspirada na regulação europeia, a LGPD brasileira é uma tentativa de atualizar a legislação do país para a área e de mantê-la alinhada aos padrões exigidos na Europa. E, sim, isso requer investimentos e mudanças de paradigmas nas organizações do Brasil.

Departamentos e/ou consultorias de tecnologia da informação (TI), por exemplo, podem fazer análises de riscos aos quais as empresas estão expostas. Também podem estimar o impacto que a nova lei terá nas organizações. Mas as alterações devem ir além.

As empresas terão de contar com as figuras do controlador, do operador e do encarregado em seu quadro de colaboradores:

– o controlador determina as diretrizes para o tratamento de dados pessoais;
– o operador é quem executa essas diretrizes no dia a dia da empresa;
– o encarregado deve intermediar eventuais contatos entre o controlador, as pessoas donas dos dados, e a agência governamental responsável por fiscalizar a aplicação da lei.

Essa agência será um novo órgão: a Autoridade Nacional de Proteção de Dados(ANPD). A criação da ANPD já foi sancionada, em julho de 2019.

Além de ficar a par da íntegra da LGPD Site externo, é preciso fixar novas funções no cotidiano corporativo para pensar políticas específicas para informações pessoais. Ou seja, as mudanças não se limitam à folha de pagamento: devem-se adotar critérios sérios e transparentes para lidar com indivíduos e o direito à privacidade online.

Sua empresa está preparada para a LGPD? Conte para a gente nos comentários.

Fonte: Redata

Seminário: Comunicação e Novas Tecnologias – Proteção de Dados e Simetria Regulatória

O Superior Tribunal de Justiça (STJ) vai sediar, no dia 26 de agosto, o seminário Comunicação e Novas Tecnologias – Proteção de Dados e Simetria Regulatória. O evento será realizado no auditório do tribunal, das 9h30 às 17h, e discutirá temas como os impactos da Lei Geral de Proteção de Dados na economia digital e os desafios na regulação do setor. A inscrição é gratuita e pode ser feita aqui. Será fornecido certificado aos participantes.

A coordenação científica do seminário é do ministro do STJ Luis Felipe Salomão e do presidente da Associação Brasileira de Rádio e Televisão (Abratel), Márcio Novaes. A palestra magna de abertura do evento será proferida pelo escritor Augusto Cury e pelo professor Ronaldo Lemos.

Os temas para os debates já foram definidos: “Responsabilização e simetria regulatória: desafios para o equilíbrio do mercado digital” e “Os impactos da Lei Geral de Proteção de Dados: Brasil na economia digital”.

De acordo com os organizadores, um dos objetivos do encontro é discutir como se dará o processo de fiscalização e aplicação da nova lei.

Ministros de tribunais superiores, juristas, representantes de associações de consumidores, do setor de tecnologia e comunicações, além de professores de diversas áreas estão entre os convidados para debater com o público esse novo momento na temática da proteção de dados.

Sistema regulat​ó​​​​rio

A Lei Geral de Proteção de Dados (Lei 13.709) foi aprovada em agosto de 2018 e entrará em vigor em agosto de 2020. A criação da Autoridade Nacional de Proteção de Dados, medida que estava inicialmente prevista na lei, foi garantida com a aprovação da Medida Provisória 869/2018 em junho deste ano.

A lei é um desdobramento da aprovação do Marco Civil da Internet, em 2014. A Lei 13.709/2018 dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural.

Fonte: STJ

Novo colonialismo não explora apenas riquezas naturais, explora nossos dados

Para o professor Nick Couldry, da London School of Economics and Political Science, o chamado “colonialismo de dados” pode marcar nova fase histórica, mediada pelas corporações

Você já parou para se perguntar o que as empresas da internet estão fazendo com seus dados? Pesquisador da London School alerta que um modo de vida radicalmente novo está sendo construído

Nas salas de aula, durante o ensino fundamental, aprendemos as primeiras noções sobre as origens do nosso País. Da chegada dos portugueses até o estabelecimento de uma república independente, nos acostumamos a dividir nossa história a partir de um período conhecido como “colonialismo”.

Embora nos livros escolares esse período tenha uma data de começo e de fim, para o professor Nick Couldry, da London School of Economics and Political Science, no Reino Unido, esse período ainda não acabou, e tem passado por diferentes fases. A atual, batizada “colonialismo de dados”, é assunto de sua mais recente obra, The Costs of Connection: How Data Colonizes Human Life and Appropriates if for capitalism, escrito em parceria com o autor mexicano Ulises Mejias.

No último dia 20 de maio, Couldry esteve na Escola de Comunicações e Artes (ECA) da USP, em São Paulo, para uma conferência que discutiu as implicações do seu trabalho. Em entrevista para o Jornal da USP, o professor explica que desenvolveu, juntamente com Mejias, o conceito de “colonialismo de dados” para entender uma questão fundamental que afeta a todos no mundo: o que está acontecendo com os nossos dados?

Durante três anos, o especialista trabalhou com a hipótese de que a economia de dados que movimenta as grandes empresas de mídia e tecnologia no mundo é resultado de um enorme desenvolvimento do capitalismo. Entre outras autoridades sobre o assunto, Couldry cita o trabalho de Shoshana Zuboff ao conceituar a atual evolução do sistema econômico como “Capitalismo de Vigilância” que, em suma, representa um novo gênero de capitalismo que monetiza dados adquiridos por vigilância.

Entretanto, para Couldry, a atual fase é, mais do que um desdobramento das novas tecnologias, um “estágio genuinamente novo do colonialismo”. E ele dá exemplos de como esse novo colonialismo funciona globalmente. “Podemos dizer que, um pouco do que o Facebook está fazendo na África, com suas plataformas gratuitas, é neocolonialismo. Eles estão usando o antigo poder do Ocidente para entrar nas economias africanas que têm uma infraestrutura fraca devido ao legado do colonialismo”, explica.

Para ele, esses movimentos podem ser observados em diferentes manifestações não apenas no continente africano, mas também em países como a China, Alemanha, o próprio Estados Unidos e até mesmo o Brasil. Para entendê-lo, é preciso enxergar o colonialismo por um viés diferente do que estamos acostumados.

Nick Couldry na Escola de Comunicações e Artes (ECA) – Foto: Marcos Santos / USP Imagens

“O recurso somos nós”

“As pessoas lembram do colonialismo histórico e do que os conquistadores espanhóis fizeram, do que os conquistadores portugueses fizeram quando chegaram ao Brasil. E eles se lembram, é claro, em termos da violência terrível, do terrível racismo que se tornou o meio de controlar as populações”, reconta ele. Para o professor, esse colonialismo histórico se concentrou na tomada de propriedade, “a tomada de terra”.

E a partir dessa diretriz exploradora, surgiram novos tipos de relações sociais. ”Antes de 1500, não havia relação social entre as pessoas na Europa e as pessoas no continente da América Latina. Eles não se conheciam. As novas relações sociais foram criadas nos governos coloniais”, conta.

Tais relações, explica ele, foram formadas em um contexto de imensa concentração de riqueza, gerando uma nova forma de desigualdade que deu origem a todo um grupo de novas ideologias, que eram as “histórias que foram contadas para dizer ‘isso não é apropriação’, ‘isso não é roubo’, ‘isso é apenas pegar o que está naturalmente lá’”, exemplifica.

Para Couldry e Mejias, os fundamentos desse colonialismo histórico continuam presentes hoje. E, embora ambos defendam que a apropriação de recursos continue, “o recurso hoje somos nós. Nossas vidas, nossas experiências estão sendo convertidas em valor por meio dos dados.”

E é nesse contexto que Couldry aponta o surgimento de novos tipos de relações sociais, relações que estão, cada vez mais, sendo mediadas por dados.

“Sabemos que toda vez que clicamos ‘aceitar’ os termos e condições de um aplicativo ou uma plataforma, temos pouca escolha, mas esses termos e condições sempre significam que os dados serão extraídos de nós”, esclarece.

E em cima desses acordos aparentemente consentidos, “uma riqueza extraordinária está sendo criada”, alerta o especialista. “Não sabemos se a Uber terá algum lucro, mas sabemos que o Google, Apple, a Microsoft e o Facebook são algumas das empresas mais lucrativas do mundo”, cita ele.

O esvaziamento do mundo social

Para fundamentar esse novo negócio, as chamadas Big Tech, empresas de tecnologia que impulsionam grandes mudanças sociais, se utilizam – tal como no colonialismo histórico – de uma ideologia própria, a de que “devemos estar sempre conectados”. Para Couldry, essa ideologia norteia o negócio dessas grandes corporações, afinal “precisamos estar conectados porque isso significará que a publicidade poderia se tornar mais pessoal, os serviços poderiam chegar até nós de modo personificado, porque eles sabem o que queremos.”

Na opinião dele, esse tipo de nova relação promove um “esvaziamento do mundo social”, no qual o capitalismo corporativo assume uma forma paradoxal de um novo domínio predisposto a uma exploração sem fim e à manipulação da sociedade.

Para o professor, a essência da discussão envolve enxergar o colonialismo de dados como uma “nova fase da história”.

Quando falamos sobre o capitalismo, hoje, muitas vezes esquecemos que o capitalismo só aconteceu por causa dos dois séculos anteriores ao colonialismo. Foi daí que veio o dinheiro, o combustível do capitalismo”

 

De acordo com ele, esse novo colonialismo com dados poderá fornecer o combustível para um novo capitalismo, com consequências ainda imprevisíveis para os próximos 50 ou 100 anos.

Universidades e resistência

Ao ser questionado sobre o papel das universidades diante desse cenário que envolve o mundo corporativo e as forças políticas vigentes, Couldry defende: é papel da academia resistir ao cerco daqueles que almejam cercear a liberdade intelectual.

Eu ouvi sobre a acusação do presidente Bolsonaro de que as universidades representam apenas balbúrdia”, comenta o professor. “Isso é muito interessante porque o governo que não se importa com a democracia ou a liberdade, obviamente se sente ameaçado pelas universidades, que tentam defender esses valores.”

Para ele, é central que as universidades questionem o governo sobre o tipo de sociedade que as forças políticas pretendem fomentar. Ao relembrar a obra Ensaio sobre a Cegueira, escrita pelo autor português José Saramago, Couldry traça um paralelo que une a noção de colonialismo de dados com a importância de que os governos coloquem o interesse dos seus cidadãos à frente de interesses corporativos ou forças totalitárias.

“Uma doença acontece e quase todos ficam cegos, com exceção de alguns. Pessoas tentam fingir que não estão cegas e dizem ‘nós podemos ver, sabemos para onde ir’, mas isso não era verdade e as faz lutar contra si mesmas até a morte”, sumariza ele ao concluir que, para evitar esse cenário apocalíptico, devemos, enquanto cidadãos e governos, nos questionar se estamos entrando em um novo período de cegueira voluntária. “É por isso que precisamos começar a resistir”, pontua ele, ao alertar para os perigos dessa nova fase.

Estamos em um momento histórico em que um modo de vida radicalmente diferente está sendo construído. E temos que prestar muita atenção a essas mudanças. E em um país como o Brasil, estamos vendo alguns dos efeitos colaterais dessa nova ordem”, finaliza.

Fonte: Jornal da USP

Seminário “Lei de Acesso à Informação e Controle Social”

Objetivo:
Em 2011 foi promulgada a Lei nº 12.527/2011, mais conhecida como Lei de Acesso à Informação, que regulamenta o direito constitucional de acesso às informações públicas. Essa norma entrou em vigor em 16 de maio de 2012 e criou mecanismos que possibilitam, a qualquer pessoa, física ou jurídica, sem necessidade de apresentar motivo, o recebimento de informações públicas dos órgãos e entidades. A Lei vale para os três Poderes da União, Estados, Distrito Federal e Municípios, inclusive aos Tribunais de Conta e Ministério Público. Entidades privadas sem fins lucrativos também são obrigadas a dar publicidade a informações referentes ao recebimento e à destinação dos recursos públicos por elas recebidos.

O objetivo desse Seminário é discutir o processo de implementação dessa Lei nos diferentes níveis de governos, bem como verificarmos as avaliações já produzidas para que possamos ter maior clareza sobre os avanços dessa política pública, bem como os desafios ainda presentes para sua plena efetivação.

Público Alvo: Servidor do TCM; Servidor público municipal, estadual e federal; Membros dos Conselhos de Políticas Públicas; Representantes da Sociedade Civil e demais interessados.

Palestrantes:
MS. Antônio Gouveia de Sousa – Mestre em Ciências Humanas e Sociais pela Universidade Federal do ABC (UFABC), na linha de pesquisa “Estado, Políticas Públicas e Sociedade Civil”. Exerceu o cargo de Diretor Técnico do Núcleo de Monitoria e Fiscalização, do Departamento de Gestão do Sistema de Arquivos do Estado de São Paulo (DGSAESP), do Arquivo Público do Estado de São Paulo (APESP). Trabalhou no Núcleo de Informações Estratégicas, da Subsecretaria de Ações Estratégicas do Governo do Estado de São Paulo. Foi membro do Grupo Técnico responsável pelas ações estratégicas e efetividade da implementação da Política de Acesso à Informação na Administração Pública do Estado de São Paulo (Casa Civil). Trabalhou no Departamento de Gestão da Documentação Técnica e Administrativa, bem como no Serviço de Informações ao Cidadão (SIC), da Secretaria de Governo do Estado de São Paulo.

Dr. Levi de Mello – Procurador do Estado de São Paulo, Pós-Graduado em Direito Processual Civil pela Escola Superior da Procuradoria Geral do Estado de São Paulo, Foi Diretor do Departamento de Assuntos Jurídicos e Disciplinares da Corregedoria Geral da Administração do Estado de São Paulo.  Atualmente em exercício da Consultoria Jurídica da Secretaria de Segurança Pública do Estado de São Paulo.

Mediadora:
MS. Antônia Conceição dos Santos – Mestre em Serviço Social pela Pontifícia Universidade Católica de São Paulo. É Assistente Social da Prefeitura Municipal de São Paulo. Atualmente é Professora na Escola de Contas do Tribunal de Contas de São Paulo. Implantou e coordenou o Conselho Participativo Municipal de São Paulo. Tem larga experiência na área de Controle Social e Conselhos de Políticas Públicas.

Coordenação do evento: Grupo de Estudo Controle Social das Políticas Públicas

Data: 11 de junho de 2019
Horário: Das 9 às 12h.
Local: Escola de Contas – Auditório – Av. Professor Ascendino Reis – 1130 – Vila Clementino.

Inscrição gratuita. Vagas limitadas.

Mais informações e inscrições: http://www.escoladecontas.tcm.sp.gov.br/palestras/evento/987/-/seminario-lei-de-acesso-a-informacao-transparencia-e-controle-social?fbclid=IwAR35zBloO-VOrzObN1zpdfXRJqEWb-KPPRITZ-6cwsSmrO_8B2bDTi8j4Lk

Dados de saúde com inteligência artificial (IA) melhora os resultados

A adoção dessa tecnologia no setor está otimizando significativamente o atendimento ao paciente

Tim Morris*

Foto: Shutterstock 

A inteligência artificial (IA) e o ‘machine learning’ existem há muitos anos. Na verdade, está presente há tanto tempo quanto as pessoas vêm considerando a ideia de uma máquina imitando a mente humana e construindo um cérebro virtual. Então, por que isso agora está nos impactando tanto?

Crescimento exponencial de dados

No setor de saúde o que impacta são os dados e, talvez, dados mais importantes no contexto do atendimento ao paciente. De acordo com a IDC, os dados de saúde crescerão para 2.314 ‘exabytes’ até o próximo ano, de um número de 153 ‘exabytes’ em 2013, com uma taxa de crescimento anual de 48%. Somente os provedores do Electronic Health Record (EHR) estão gerando enormes quantidades de dados estruturados e não estruturados. Esse mercado global deve crescer de cerca de US$ 23 milhões para US$ 32 milhões até 2023.

Além disso, o aumento da tecnologia ‘wearable’ (aquela que vestimos, como óculos e relógios, entre outros) está permitindo que mais informações sejam coletadas dos pacientes enquanto eles trabalham e quando ficam doentes e são tratados no hospital. Saúde e bem-estar são as principais razões pelas quais as pessoas estão comprando ‘wearables’, para melhorar os resultados de sua saúde.

Os pacientes estão, portanto, no centro de onde esses dados precisam ser utilizados e podem ser desenvolvidos. Em última análise, para qualquer profissional de saúde, médico, enfermeiro ou empresa de TI da área de saúde, o objetivo comum é reduzir a variabilidade na prática, personalizar o atendimento aos pacientes e melhor tratá-los para reduzir o impacto dos danos e fornecer melhores resultados.

Os sistemas de apoio à decisão clínica (CDS) têm sido a principal arma na batalha contra a variabilidade na prática e no apoio aos resultados clínicos. Eles incorporam conhecimentos clínicos que refletem continuamente na medicina baseada em evidências (MBE) da literatura de pesquisa e fontes de conhecimento prático.

No entanto, a MBE demora muito para se tornar parte da prática clínica. Demora cerca de 17 anos para apenas 14% das novas descobertas científicas encontrarem seu caminho na prática diária e impacto de cuidados. A realidade é que isso é muito tempo e não há necessidade de esperar se gerarmos todas essas informações e pudermos avançar.

O potencial dos dados do mundo real

Agora, os “dados do mundo real” que foram reunidos em grandes estudos observacionais estão diminuindo a distância entre os cenários experimentais e as realidades clínicas. Dada a disponibilidade de dados abrangentes, a oportunidade de aproveitar estudos retrospectivos em grande escala para compreender o comportamento e os resultados do paciente pode ser usada para melhorar a prática futura de cuidados.

A ideia do ‘botão verde’ liderada por Nigam Shah, Christopher Longhurst e Robert Harrington na Universidade de Stanford apresenta um cenário no qual os médicos podem analisar uma amostra menor de pacientes semelhantes (talvez o resumo de 100 outros casos) com idade, sintomas etc. que receberam diversos tratamentos ou medicamentos. Podemos aprender por intermédio da análise profunda de dados que pacientes semelhantes podem ter reagido particularmente bem com um medicamento. Isso não teria sido estudado por meio de resultados científicos mais amplos. Portanto, a análise do mundo real para formar “evidências do mundo real” permite que os médicos coloquem evidências em prática.

O futuro da tomada de decisão clínica pode ser trilhado com base em evidências do mundo real através do uso de IA e aprendizado de máquina. Então, como usamos as ferramentas de IA e ‘machine learning’, e como reduzimos o tempo de evidência para prática?

Uso da IA e ‘machine learning’

A maioria dos dados de saúde que coletamos é desestruturada, exigindo trabalho extensivo para estruturar, codificar e identificar antes que qualquer análise profunda possa começar. Portanto, 80% do uso de IA está na preparação dos dados. Usando este processo, os dados brutos não estruturados e anteriormente inutilizáveis tornam-se conhecimento acionável em tempo real.

Suportada por algoritmos avançados e capacidades de ‘machine learning’, a IA pode analisar dados de pacientes existentes para estudar e desenhar novos achados de uma amostra menor de pacientes e hipóteses, muitas vezes não cobertas em pesquisas científicas maiores. Por exemplo, na Alemanha a Elsevier fechou parceria com um prestador de serviços de saúde para avaliar seis milhões de conjuntos de dados de pacientes anônimos, juntamente a dados de 25 milhões de publicações médicas.

Além disso, com análises profundas, os dados coletados por meio de conteúdo estruturado podem ser facilmente analisados para feedback sobre as práticas de cuidado. Isso terá impacto direto nas diretrizes de cuidados e proporcionará um processo contínuo de melhoria na tomada de decisões clínicas. Esse ciclo de retroalimentação permitirá reduzir as variações injustificadas e permitir que os ‘insights’ sejam devolvidos à prática clínica, comparando a melhoria clínica entre os hospitais.

Conclusão

A inteligência artificial (IA) e a tecnologia de ‘machine learning’ permanecerão como um método de entender nosso mundo, mas precisamos entregar resultados que serão impactantes para o paciente. É como usamos essas ferramentas e como fazemos a diferença que é importante. Os provedores de serviços de saúde podem realmente ser os pesquisadores do futuro e reduzir o tempo de 17 anos para dias e melhorar os resultados dos pacientes. Estou realmente animado com a jornada que estamos trilhando para a melhoria da saúde global.

*Tim Morris é diretor de portfólio comercial e de parcerias da Elsevier para EMEALAAP

Fonte: IT Forum 365

Ciência Aberta e a Gestão de Dados de Pesquisa: Iniciativas USP e FAPESP

Biblioteca do Instituto de Matemática e Estatísticae o Sistema Integrado de Bibliotecas da USP têm a honra de convidá-lo(a) para o “Workshop Ciência Aberta e a Gestão de Dados de Pesquisa: Iniciativas USP e FAPESP” a ser realizado no Instituto de Matemática e Estatística.

A Ciência Aberta é um movimento internacional de prática científica que valoriza a disponibilização das informações científicas e com isso propicia a ampla comunicação e difusão das pesquisas à sociedade. O objetivo do evento é promover o debate sobre gestão, compartilhamento e abertura de dados para pesquisa, como forma de estimular a colaboração entre pesquisadores e também a evolução do conhecimento científico.

A gestão de dados de pesquisa e os repositórios asseguram que conjuntos de dados produzidos por pesquisadores individuais ou grupos de pesquisa possam ser compartilhados e também reaproveitados em outras pesquisas, com transparência e reprodutibilidade.

Portanto, aproveite a oportunidade para saber mais e debater sobre esse assunto tão atual e importante assistindo as palestras dos conceituados professores e pesquisadores Dr. Roberto Marcondes Cesar Junior e Dra. Fátima L. S. Nunes, com a mediação da Chefe Técnica da Divisão de Gestão de Desenvolvimento e Inovação do SIBiUSP, Dra. Elisabeth Adriana Dudziak.

Data: 03 de abril de 2019
Horário: 14h30 – 16h30
Local: Auditório Jacy Monteiro – Térreo
Instituto de Matemática e Estatística
Rua do Matão, 1010 – Cidade Universitária – Butantã
05508-090 – São Paulo – SP
O evento é gratuito e aberto a todos os interessados. Serão emitidos certificados de participação.

Liaison Librarians: ¿Que son los bibliotecarios de enlace?

d70387_28

Cada vez es más frecuente encontrar en la literatura profesional el término liaison librarians, especialmente cuando se trata de determinados temas como el papel profesional del bibliotecarios en las Humanidades Digitales, Apoyo a la Investigación o en la Gestión de Datos de Investigación (RDM). la tarea fundamental del bibliotecario de enlace tiene que ver con el nuevo desempeño profesional en respuesta de las últimas tendencias en bibliotecas universitarias.

El término bibliotecario de enlace tiene una amplia variedad de perspectivas, incluyendo aquellas más cercanas que pueden usar diferentes terminos y matices como son “bibliotecario temático”, “Asesor bibliotecario” “bibliotecario departamental” y/o “bibliotecario integrado

Las bibliotecas universitarias existen dentro del contexto de sus instituciones específicas y comparten con estas entornos políticos, sociales y normativos más amplios. En este contexto cada vez con más frecuencia hablamos de las partes interesada​​s​ o socios colaboradores (del inglés stakeholder) en referencia a una persona, organización o empresa que tiene un interés común en una empresa u organización. Las partes interesadas pueden ser los trabajadores de esa organización, sus accionistas, los clientes, los proveedores de bienes y servicios, proveedores de capital, las organizaciones civiles y gubernamentales que se encuentren vinculadas a la misma. En este sentido el bibliotecario de enlace responde a este perfil de socio colaborador interno.

Un bibliotecario de enlace sobrepasa y amplia las funciones tradicionales de la profesión para participar en iniciativas de colaboración con el personal académico y administrativo. La biblioteconomía de enlace implica generalmente a bibliotecarios individuales que asumen la responsabilidad de apoyar a los grupos con los que se relacionan en todas las áreas principales de la biblioteconomía (formación, gestión de colecciones y servicios de referencia) y también a menudo involucra componente de “extensión”. Principalmente el bibliotecario de enlace se centran en la colaboración con el académico para conectarse mejor con los investigadores, y apoyar y de manera más intensa su trabajo académico, siendo el principal punto de contacto de un alumno o de un investigador con la biblioteca. Los bibliotecarios de enlace pueden asistir al investigador en y tareas tales como:

  • Consejos para encontrar información y pedagogía digital

  • Ayuda en el uso de recursos (bases de datos, gestores de referencias, servicios de información.. )

  • Obtener cualquier consulta sobre la biblioteca

  • Apoyo a las tareas de investigación

  • Minería de datos y de textos

  • Producción académica digital

  • Curación de contenidos, perservación, metadatos

En el caso de las Humanidades Digitales, esta área implica el trabajo de equipos de investigación en espacios o centros de colaboración. Los miembros del equipo podrían incluir a investigadores y profesores de múltiples disciplinas, bibliotecarios, científicos de datos y expertos en preservación, tecnólogos con experiencia en métodos críticos de computación e informática y estudiantes universitarios. Esto permite a los investigadores analizar nuevas cuestiones sobre la experiencia humana a una escala y alcance sin precedentes, fomentando una investigación altamente interdisciplinaria, involucrando a equipos de disciplinas que tradicionalmente no han interactuado con estudiosos de las humanidades, aportando visibilidad a la forma en que los humanistas piensan y trabajan.

A medida que las Humanidades Digitales (DH) evolucionan, el papel de las bibliotecas y bibliotecarios que trabajan en este campo continúa desarrollándose. Por lo general, su trabajo exige comunicarse con los departamentos, ofrecer referencias bibliográficas y ayudar en el desarrollo de la investigación en una variedad de formatos, ofrecer novedades, tendencias y manejo de colecciones. De este modo, estas nuevas funciones pueden requerir del aprendizaje de nuevas habilidades; así, los especialistas en la materia que trabajan en el campo de las humanidades se ven abocados a asumir nuevos roles como resultado del interés por las humanidades digitales, incluyendo temas relativos el valor del acceso abierto, el trabajo con formatos y herramientas sostenibles, archivos y teoría archivística, intercambio de datos, ética de la información, metadatos, publicación digital, evaluación, uso de datos y lo relativo a visibilidad de la información científica.

En lo relativo a la formación, la biblioteconomía de enlace no aboga por el abandono de los conocimientos básicos sobre la información, ni de ninguno de los otros elementos esenciales de la caja de herramientas del bibliotecario, si no que promueve activamente el desarrollo y la extensión de nuevas habilidades para participar de una manera más activa con la comunidad académica.

La tarea y el desempeño del bibliotecario de enlace, en lo que se refiere a la gestión programática de modelos, conlleva la gestión y evaluación del trabajo de cada bibliotecario de enlace para mejorar la capacidad y eficiencia de este servicio. Este proceso de construcción de relaciones y colaboración toma tiempo, pero los beneficios de trabajar en estrecha colaboración con docentes e investigadores es crucial para el éxito de la institución.

En esencia el bibliotecario de enlace demuestra el potencial del papel de enlace y enfatiza la necesidad de flexibilidad, imaginación e iniciativa en aquellos que ocupan estos puestos. La investigación necesita que los especialistas en la materia y enlaces (bibliotecarios) establezcan un fuerte compromiso para generar servicios de valor.

Fonte: Universo Abierto

Dia do Bibliotecário é lembrado com prêmio e eventos

PUBLISHNEWS
Eventos acontecem na capital e em Lorena, Campinas, São Carlos e Ribeirão Preto. XIII Prêmio Laura Russo da Biblioteconomia Paulista também será entregue logo mais.

Em homenagem ao Dia do Bibliotecário, comemorado hoje (12), o Conselho Regional de Biblioteconomia 8ª região vai realizar alguns eventos em São Paulo (capital) e nas cidades de Lorena, Campinas, São Carlos e Ribeirão Preto. Na capital paulista, o Sesc 24 de Maio (Rua 24 de Maio, 109), recebe às 18h45, a palestra O Bibliotecário na era da informação de dados, do Prof. Dr. Adilson Luiz Pinto, professor da UFSC. Também será realizada a XIII edição do Prêmio Laura Russo da Biblioteconomia Paulista, uma homenagem à bibliotecária Laura Russo, falecida em 2001 e uma das responsáveis pela regularização da profissão na década de 1950. O prêmio tem como objetivo homenagear profissionais e instituições que tenham se destacado em ações de promoção, divulgação e inovação nas bibliotecas paulistas. O tema deste ano da premiação – Biblioteca Escolar para Todos – destaca o papel da biblioteca escolar como instituição educadora com impacto na formação global do indivíduo. Para encerrar as comemorações, no dia 16, o Auditório do Museu da Cidade de SP (Rua Roberto Simonsen, 136) recebe uma oficina sobre gestão do conhecimento, com o bibliotecário Leonardo Souto, do BNDES, às 9h.

Fonte: PUBLISHNEWS

Plataforma reúne 400 bancos de dados para uso por pesquisadores

Site fundado em 2003 pelo professor e sociólogo Brasilio Sallum facilita o acesso a informações e pesquisas para cientistas políticos e sociais
Por Paulo Marcondes

O Consórcio de Informações Sociais (CIS) está trabalhando na captação de bancos de dados junto à comunidade acadêmica. Pesquisadores e laboratórios podem submeter dados de trabalhos produzidos durante a criação de teses, dissertações, iniciações científicas, etc.

A ideia da plataforma, vinculada aos departamentos de Sociologia e Ciência Política da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP, é gerar um intercâmbio de informações com pesquisas qualitativas e quantitativas em diversos campos das Ciências Sociais e áreas relacionadas.

Dentro do CIS, o usuário pode encontrar dados e materiais de pesquisa sobre desigualdade de gênero, violência, eleições, arte e cultura, direitos humanos, descriminalização de drogas, entre outros temas. É possível também observar variáveis, como idade, sexo e até mesmo cruzar essas informações. Os questionários usados na pesquisa e sua abrangência, além de outros materiais metodológicos, são disponibilizados pelo site.

A plataforma pode facilitar o trabalho de pesquisadores. “A ideia por trás do CIS é de que os dados produzidos pela comunidade acadêmica são subaproveitados: o pesquisador produz, faz alguns artigos, às vezes escreve um livro e isso nunca mais é usado. A ideia é que tornando esses dados públicos, eles possam ser usados por outros pesquisadores. O CIS existe para corrigir essa deficiência”, explica Edison Bertoncelo, coordenador do CIS e professor do Departamento de Sociologia da FFLCH.

A plataforma surgiu em 2003, fundada pelo professor Brasilio Sallum Jr., do Departamento de Sociologia da FFLCH, que se inspirou no Inter-Universitary Consortium for Political and Social Research (ICPSR), criado pela Universidade de Michigan nos anos de 1960.

Atualmente com mais de 400 bancos de dados, os professores Gustavo Venturi, do Departamento de Sociologia, Glauco Peres e Lorena Barberia, do Departamento de Ciência Política, fazem parte da coordenação do CIS.

Recentemente, uma parceria com o Fórum Brasileiro de Segurança Pública foi firmada e dados de duas pesquisas estão disponíveis no CIS: Percepção sobre violência sexual e atendimento a mulheres vítimas nas instituições policiais, de agosto de 2016 e Visível e invisível: a vitimização de mulheres no Brasil, de março de 2017. Os dois estudos tiveram colaboração do Instituto DataFolha.

Desafios

“Nós temos um problema para captar banco de dados. Mobilizamos as nossas redes e incentivamos as pessoas a doarem seu banco, no entanto, isso não é institucionalizado no Brasil. Em outros lugares do mundo, na Inglaterra, por exemplo, uma vez que a pessoa recebe uma bolsa de pesquisa, em contrapartida, ela precisa compartilhar os dados com algum banco”, conta Edison.

Como muitos sociólogos ainda têm dificuldades para manejar dados quantitativos, a plataforma também disponibiliza uma série de vídeos no Youtube ensinando o pesquisador a construir bancos com os programas mais comuns. Além desse conteúdo, o site também aponta para tutoriais de outras pessoas.

O conteúdo disponibilizado é gratuito. Para ter acesso ao material disponível, é necessário um cadastro que pode ser feito clicando aqui. Caso haja alguma dúvida no momento de enviar o seu banco de dados, há um manual explicando todo o processo.

Mais informações: (11) 3091-2066, e-mail contato.cis@usp.br e site www.cis.org.br

Fonte: USP/FFLCH

DIA DO BIBLIOTECÁRIO É LEMBRADO COM PRÊMIO E PALESTRAS

RMC 

DIA DO BIBLIOTECÁRIO É LEMBRADO COM PRÊMIO E PALESTRAS

Foto: Regina Celi, presidente do Conselho Regional de Biblioteconomia – 8ª região (Foto divulgação)

Profissão deve crescer nos próximos anos, devido a  Lei 12.244/2010, que determina que todas as instituições de ensino públicas e particulares do Brasil tenham bibliotecas até 2020

Em homenagem ao Dia do Bibliotecário, comemorado em 12 de março,  o  Conselho Regional  de Biblioteconomia 8ª região  vai realizar vários eventos em São Paulo (capital) e nas cidades de Lorena, Campinas, São Carlos e Ribeirão Preto.

Na capital paulista, o Sesc 24 de Maio  receberá a palestra “O Bibliotecário na era da informação de dados”, do Prof. Dr. Adilson Luiz Pinto, professor da UFSC. Com direito a um pocket show com o ator e poeta Gero Camilo.

Também será realizada a XIII edição do Prêmio Laura Russo da Biblioteconomia Paulista, uma homenagem à bibliotecária Laura Russo, falecida em 2001 e uma das responsáveis pela regularização da profissão na década de 1950.  O prêmio objetiva homenagear profissionais e instituições que tenham se destacado em ações de promoção, divulgação e inovação nas bibliotecas paulistas.

O tema deste ano da premiação (Biblioteca Escolar para Todos) destaca o papel da biblioteca escolar como instituição educadora com impacto na formação global do indivíduo. Além de beneficiar a profissão, o prêmio objetiva valorizar os profissionais de destaque no mercado. A inscrição é gratuita e vai até 11 de março, pelo e-mail crb8@crb8.org.br.

“Queremos trazer à tona discussões pertinentes ao dia a dia dos profissionais . Serão debatidas nesses eventos questões relativas ao fazer bibliotecário, o [re]pensar em novas possibilidades para a profissão, e as bibliotecas escolares, públicas, universitárias e especializadas”, explica a presidente do Conselho Regional de Biblioteconomia – 8ª região, Regina Celi de Sousa.

Uma carreira em Ascensão:

A Lei 12.244 regulamenta que todas as instituições de ensino públicas e privadas do Brasil tenham bibliotecas até 2020. A legislação, sancionada em 24 de maio de 2010, também obriga todos os gestores a providenciarem um acervo de, no mínimo, um título para cada aluno matriculado.

Portanto, é  uma profissão que crescerá.  Mas não só por motivo da Lei, em tempos de big data, cresce a demanda por profissionais que saibam trabalhar com inteligência artificial, com grandes volumes de informação a uma velocidade cada vez maior. Não é à toa que formados em Biblioteconomia vem ganhando espaço também em vários setores da iniciativa privada.

E, como outras áreas, a biblioteconomia também passa por grandes mudanças. Hoje, alguns temas da profissão incluem como visualizar e quantificar dados, analisar o comportamento de redes sociais e a gestão da documentação. Na essência, porém, algo se manteve: Bibliotecário é quem sabe cuidar de grandes acervos, sejam eles impressos ou digitais.

Serviço: Dia do Bibliotecário 2019 – Programação:

São Paulo

Local: Sesc 24 de Maio – Rua 24 de Maio, 109 – República

Data e horário: 12 de março de 2019, 18h45.

Palestra:  “O Bibliotecário na era da informação de dados”-Adilson Luiz Pinto 

Pocket show: Gero  Camilo

Entrega do  XIII Prêmio Laura Russo da Biblioteconomia

Coquetel : será oferecido aos convidados na área da entrada do auditório

Inscrições: http://www.crb8.org.br/dia-do-bibliotecario-sao-paulo-capital/

Encerramento das comemorações16/03 – das 9h às 13h – Oficina sobre gestão do conhecimento, com o bibliotecário Leonardo Souto, do BNDES, durante o Café Booleano – Local: Auditório do Museu da Cidade de SP – Rua Roberto Simonsen, 136 – Sé – SP Inscrições:  http://www.crb8.org.br/cafe-booleano-2019/

 

Interior: 

Campinas:  11 de março, 17h

Palestra: O Bibliotecário e a visualização de dados informacionais – Prof. Dr. Adilson Luiz Pinto, da Universidade Federal de Santa Catarina ( UFSC)

Local: Escola e Faculdade de Tecnologia Senai  “Roberto Mange” – Auditório (Rua Pastor Cícero C. de Lima, 71, São Bernardo, Campinas)

 

Lorena: 11 de marco, 20h

Palestra: As inovações na catalogação bibliográfica – Prof. Dr. Fernando Modesto (USP/ECA)

Local: Centro Universitário Teresa D’Ávila – UNIFATEA – Auditório Clarice Lispector (Av. Peixoto de Castro, 539, Vila Celeste, Lorena)

 

Ribeirão Preto: 12 de março, 19h

Palestra: lnovação e Empreendedorismo – Prof. Dr. Francisco Carlos Paletta (USP/ECA)

Local: Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto- FFCLRP/USP, Anfiteatro André Jacquemim

 

São Carlos: 13 de março, 19h

Palestra: A biblioteca do futuro e o profissional da informação – Prof. Dr. Francisco Carlos Paletta (USP/ECA)

Local: Universidade Federal de São Carlos – UFSCAR – Anfiteatro Bento Prado Jr. – Avenida Biblioteca Comunitária (área norte da UFSCAR/Campus São Carlos).

Inscriçõeshttp://www.crb8.org.br/convite-dia-do-bibliotecario-interior/

Fonte: SB 24 HORAS

Dia do Bibliotecário – São Paulo Capital

 

No dia 12 de março de 2019, o Conselho Regional de Biblioteconomia do Estado de São Paulo – CRB-8  comemorou o “Dia do Bibliotecário”, promovendo um momento de reflexão oportuna e atual, para as (os) Bibliotecárias os) paulistas, sobre a sua profissão e os novos campos de atuação. Bem como a entrega do Prêmio Laura Russo, com o tema Biblioteca Escolar para todos! Neste sentido, convida a comunidade profissional para a programação que segue. 

18h45 – Abertura:  Regina Céli de Sousa (Presidente do CRB-8); Alessandra Atti (Conselheira do CFB) e representante do SESC São Paulo

19h- Entrega do XIII Prêmio Laura Russo da Biblioteconomia Paulista.

19h45- Palestra: O Bibliotecário na era da informação de dados, com o Prof. Dr. Adilson Luiz Pinto (Universidade Federal de Santa Catarina).

20h30 – Pocket Show – O Arteiro, com o ator e poeta Gero Camilo.

21h – Confraternização.

 

 

 

 

 

O CRB-8 emitirá certificado eletrônico de sua participação.

Google lança nova ferramenta de busca para dados científicos

Plataforma Dataset Search foi desenhada para facilitar o acesso a conjuntos de dados dispersos em milhares de repositórios.

Texto por Fábio de Castro

Voltada especialmente para a comunidade acadêmica, uma nova ferramenta de busca lançada pela Google promete facilitar o acesso de pesquisadores a conjuntos de dados científicos que atualmente estão pulverizados em milhares de repositórios online mantidos por instituições de pesquisa.

Lançada em setembro, a ferramenta, chamada Dataset Search, ajuda pesquisadores a encontrar facilmente os dados completos de estudos disponíveis em repositórios dos mais variados tipos – como sites de editoras, agências governamentais e instituições de pesquisa, em bibliotecas digitais e em páginas pessoais de cientistas, por exemplo.

A empresa já havia lançado um serviço voltado para a comunidade científica, o Google Scholar – em português Google Acadêmico –, que é uma ferramenta de busca de artigos e relatórios de pesquisa. Havia demanda, porém, para um sistema de busca específico para dados, já que, segundo a empresa, “no mundo atual, cientistas de muitas disciplinas e um número crescente de jornalistas vivem e respiram dados” e eles estão dispersos na internet.

Bons resultados

A nova ferramenta será de grande importância para a ciência, especialmente em áreas que utilizam grandes volumes de dados, segundo o professor Marcelo Finger, chefe do Departamento de Ciências da Computação do Instituto de Matemática e Estatística (IME) da Universidade de São Paulo (USP).

“É surpreendente que a Google, que lida com um público da ordem de bilhões de usuários, lance mais uma ferramenta voltada para a comunidade científica, que é um público numericamente limitado. Mas ela será sem dúvida muito importante para a comunidade”, disse Finger.

Convidado por Direto da Ciência para testar o Dataset Search, Finger – que é um dos coordenadores da área de Ciência e Engenharia da Computação da Fapesp – considerou a ferramenta útil para aumentar a disponibilidade de dados.

“Fiquei bem impressionado e cheguei a recomendar para um aluno. Ainda há algumas limitações – notei, por exemplo, que quando se faz uma busca só aparecem os dez primeiros resultados. Mas, do ponto de vista científico, para quem desenvolve trabalhos com bases em dados, já é muito útil. A disponibilidade de dados é fundamental para a ciência, porque permite elevar o grau de reprodutibilidade das pesquisas”, disse Finger.

Maior disponibilidade de dados

O pesquisador diz acreditar que o Dataset Search crescerá rapidamente. “Quem possui dados de pesquisa em um repositório, ou é responsável por uma biblioteca de dados online, vai se interessar por tornar seus dados mais disponíveis e por indexá-los na ferramenta”, afirmou.

Natasha Noy, pesquisadora em inteligência artificial da Google, divulgou que a empresa estimulará fornecedores de dados a adotarem o padrão aberto desenvolvido pela empresa para descrever as informações relacionadas a seus dados, aos metadados e à própria instituição que os produziu.

“Desenvolvemos diretrizes para que os fornecedores de conjuntos de dados descrevam seus dados de uma forma que o Google possa entender melhor o conteúdo das páginas: quem criou, quando foi publicado, como os dados foram coletados, quais são os termos de uso, etc.”, disse a pesquisadora no Blog da Google.

“Notei que, além de dar acesso aos conjuntos de dados, a ferramenta também indica artigos da literatura científica que mencionam, utilizam, ou descrevem esses dados. Acredito que será de grande utilidade em todas as áreas do conhecimento – biologia, linguística, física, oceanografia e assim por diante. Minha área de pesquisas, em processamento de linguagem natural, vai se beneficiar muitíssimo”, afirmou Finger.

Segundo Natasha Noy, a ferramenta foi lançada com foco em dados de ciência ambiental, ciências sociais e de pesquisa governamental, mas a quantidade de conjuntos de dados disponível aumentará continuamente à medida que o serviço se torne mais popular.

“Esse tipo de busca tem sido um sonho para muitos pesquisadores nas comunidades de dados abertos de ciência”, disse ao blog da Google o chefe da área de dados da agência Administração Oceânica e Atmosférica Nacional dos Estados Unidos (NOAA, na sigla em inglês), Ed Kearns.

“Para a NOAA, cuja missão inclui o compartilhamento de nossos dados com outros cientistas, essa ferramenta é chave para que tornemos nossas informações mais acessíveis para uma comunidade de pesquisadores cada vez maior”, disse Kerns.

Na imagem acima, sede da Google em Mountain View, na California, Estados Unidos. Foto: Noah Loverbear, sob licença Creative Commons Attribution-Share Alike 3.0 Unported.

Fonte: Direto da Ciência

Governo permite que servidores comissionados imponham sigilo ultrassecreto a dados públicos

Por G1 — Brasília

Antes, essa classificação dos documentos só podia ser feita pelo presidente e vice-presidente da República, ministros de Estado e autoridades equivalentes, além dos comandantes das Forças Armadas e chefes de missões diplomáticas no exterior.

A LAI, que entrou em vigor em 2012, criou mecanismos que possibilitam a qualquer pessoa (física ou jurídica) o acesso às informações públicas dos órgãos e entidades, sem necessidade de apresentar motivo.

Informações classificadas como ultrassecretas podem se tornar públicas após 25 anos. Trata-se do grau máximo de sigilo. Além deste, há o grau secreto, que impõe 15 anos de sigilo, e o reservado, que protege a informação por 5 anos. Os demais documentos, sem nenhuma dessas classificações, devem ser disponibilizados ao público (veja, abaixo, o que dizia a regra anterior e o que diz a atual).

Os servidores comissionados que poderão gerenciar o carimbo do sigilo são os DAS (Direção e Assessoramento Superiores) 101.6 e 101.5, com salários de R$ 16.944,90 e R$ 13.623,39, respectivamente.

G1 procurou a Casa Civil e a Controladoria-Geral da União (CGU), que analisa os recursos contra negativas de acesso a informação feitas por ministros, mas não obteve retorno até a última atualização desta reportagem.

O vice-presidente Hamilton Mourão, que está no exercício da Presidência, afirmou nesta quinta-feira (24) que o decreto “diminui a burocracia” para “desqualificar” documentos sigilosos.

Segundo Mourão, a “transparência está mantida” e são “raríssimas” as informações no Brasil consideradas ultrassecretas.

“A transparência está mantida. E as coisas aqui no Brasil são raríssimas as que são ultrassecretas, normalmente são planos militares, alguns documentos do Itamaraty, alguns acordos firmados, são muito pouca coisa”, declarou.

Crítica

Membro do Conselho de Transparência Pública e Combate à Corrupção da CGU, Manoel Galdino diz que o assunto não foi discutido na última reunião do conselho, em dezembro, com a presença do ministro Wagner Rosário – ele não assina o decreto.

“Pegou a gente de surpresa. Precisamos pedir esclarecimentos ao governo de quais são as razões. É problemático que uma medida de alteração do que é sigiloso seja feita sem discutir com a sociedade civil. Eles não tiveram transparência para alterar um decreto justamente sobre o tema”, diz.

De acordo com a ata da reunião, Wagner Rosário, que foi mantido no comando da CGU pelo presidente Jair Bolsonaro, disse que seriam propostas algumas mudanças na Lei de Acesso à Informação, mas “nada que retire direitos”. “São somente alguns prazos de recurso, e alguns outros detalhes, que serão apresentados na próxima reunião (do conselho, marcada para março)”, segundo o resumo da declaração dele.

Galdino, que também é diretor-executivo da Transparência Brasil, avalia que o decreto do governo Bolsonaro pode aumentar o volume de informações classificadas como secretas e ultrassecretas.

Por outro lado, mais pessoas poderão ter acesso a informações que eventualmente precisem ser classificadas secretas e ultrassecretas. “[Isso] tem uma implicação de gestão dos riscos do governo.”

Como era e como ficou

Entenda de quem era competência da classificação de informações sigilosas e quais foram as mudanças decretadas por Mourão.

ANTES DO NOVO DECRETO

Art. 30. A classificação de informação é de competência:

I – no grau ultrassecreto, das seguintes autoridades:

a) Presidente da República;

b) Vice-Presidente da República;

c) Ministros de Estado e autoridades com as mesmas prerrogativas;

d) Comandantes da Marinha, do Exército, da Aeronáutica; e

e) Chefes de Missões Diplomáticas e Consulares permanentes no exterior;

II – no grau secreto, das autoridades referidas no inciso I do caput, dos titulares de autarquias, fundações, empresas públicas e sociedades de economia mista; e

III – no grau reservado, das autoridades referidas nos incisos I e II do caput e das que exerçam funções de direção, comando ou chefia do Grupo-Direção e Assessoramento Superiores – DAS, nível DAS 101.5 ou superior, e seus equivalentes.

§ 1º É vedada a delegação da competência de classificação nos graus de sigilo ultrassecreto ou secreto.

§ 2º O dirigente máximo do órgão ou entidade poderá delegar a competência para classificação no grau reservado a agente público que exerça função de direção, comando ou chefia.

§ 3º É vedada a subdelegação da competência de que trata o § 2º.

§ 4º Os agentes públicos referidos no § 2º deverão dar ciência do ato de classificação à autoridade delegante, no prazo de noventa dias.

§ 5º A classificação de informação no grau ultrassecreto pelas autoridades previstas nas alíneas “d” e “e” do inciso I do caput deverá ser ratificada pelo Ministro de Estado, no prazo de trinta dias.

§ 6º Enquanto não ratificada, a classificação de que trata o § 5º considera-se válida, para todos os efeitos legais.

DEPOIS DO NOVO DECRETO

“Art. 30. (…)

§ 1º É permitida a delegação da competência de classificação no grau ultrassecreto pelas autoridades a que se refere o inciso I do caput para ocupantes de cargos em comissão do Grupo-DAS de nível 101.6 ou superior, ou de hierarquia equivalente, e para os dirigentes máximos de autarquias, de fundações, de empresas públicas e de sociedades de economia mista, vedada a subdelegação.

§ 2º É permitida a delegação da competência de classificação no grau secreto pelas autoridades a que se referem os incisos I e II do caput para ocupantes de cargos em comissão do Grupo-DAS de nível 101.5 ou superior, ou de hierarquia equivalente, vedada a subdelegação.

§ 3º O dirigente máximo do órgão ou da entidade poderá delegar a competência para classificação no grau reservado a agente público que exerça função de direção, comando ou chefia, vedada a subdelegação.

§ 4º O agente público a que se refere o § 3º dará ciência do ato de classificação à autoridade delegante, no prazo de noventa dias. (…)” (NR)

Fonte: G1

Toda Empresa Precisará Se Adaptar à Nova Lei Geral de Proteção de Dados: Saiba os Principais Pontos

Publicado por Ronaldo Lemos
Há um tema que não pode mais ser ignorado por empresas, governos, pessoas e quaisquer outras instituições no Brasil hoje: a proteção aos dados pessoais (que inclui desde o nosso nome e número de telefone até nossos dados de navegação e padrões de consumo).Isso porque em agosto de 2018 foi aprovada no Brasil a Lei Geral de Proteção de Dados Pessoais (LGPD – Lei 13.709 de 14 de agosto de 2018). O impacto dessa nova legislação é enorme e afeta toda e qualquer empresa que trabalha com dados, em pequena ou larga escala. Dá para dizer que o impacto é tão grande quanto foi a aprovação do Código de Defesa do Consumidor para as empresas. Após sua aprovação, todo o ecossistema de negócios no Brasil teve de mudar para se adaptar aos novos requisitos legais. O mesmo vai acontecer com a LGPD.Sobre a importância dos dados pessoais tem uma frase que ficou famosa e é sempre repetida: “os dados pessoais são o novo petróleo”. Essa comparação indica como os dados pessoais, isto é, as informações que são coletados sobre nós consumidores e usuários da internet, tornaram-se valiosas. Esses dados movimentam boa parte da economia digital. Vale lembrar que muitos serviços da internet que são aparentemente “gratuitos” na verdade são pagos com nossos dados. E da mesma forma como o petróleo, dados pessoais podem vazar e quando isso acontece, pode causar danos muitas vezes irreversíveis, que lembram mesmo os desastres ambientais.

Mas há uma outra frase que acho ainda mais interessante: “Seus dados pessoais são você!”. A razão para preocuparmos com os dados pessoais é que eles são nossos avatares com relação a tudo que acontece conosco no mundo digital. Em outras palavras, os dados pessoais são a representação de que nós somos. Através deles nossa vida é decidida em múltiplas esferas: se teremos acesso a crédito, a um seguro, qual tipo de propaganda ou conteúdo iremos ver e, na medida em que o governo se digitaliza, qual tipo de política pública se aplicará a cada um de nós.

Como dá para ver a importância do tema só irá crescer. Ainda mais em uma época em que governos do mundo inteiro estão progressivamente se convertendo em plataformas tecnológicos. Já disse antes e repito: governo que não se digitalizar deixará de ser governo. Todo governo vai precisar usar cada vez mais a tecnologia para conseguir governar em um mundo cada vez mais digital. E o instrumento para fazer isso será, de novo, nossos dados. Como gosta de dizer o ex-prefeito da cidade de Nova York: “If you cannot measure it, you cannot manage it” (se você não consegue metrificar, não consegue governar).

Nesse contexto, tratar de ética e proteção a privacidade tornou-se assunto de primeira necessidade. A razão é simples. Estamos caminhando rápido para um ciclo ainda mais profundo de digitalização das nossas vidas. Teremos em breve cada vez mais cidades com tecnologias inteligentes, que se conectam a serviços públicos essenciais, do transporte à segurança pública. Do ponto de vista do setor privado teremos o digital ocupando cada vez mais espaço em nossas vidas. A inteligência artificial promete ser uma ferramenta importante para facilitar as tarefas do dia a dia, como mostram os assistentes de voz pessoais e os agentes inteligentes que hoje são capazes até de reservar uma mesa em um restaurante em nosso nome. Mas o preço para isso, de novo, é compartilhamos nossa intimidade de forma cada vez mais profunda com esses serviços.

Por isso, assegurar que os dados serão utilizados de forma ética, transparente e para finalidades que são benéficas para o usuário é medida fundamental. O Brasil deu um passo importante em 2018 ao aprovar sua Lei Geral de Proteção aos Dados Pessoais. Todas as empresas terão de se adaptar a ela. No entanto, essa lei não deve ser vista como um custo, mas sim como uma oportunidade. Ela é o marco zero para a construção de uma nova relação de confiança em usuários e empresas. E no mundo que vivemos hoje, confiança é mercadoria que se torna cada vez mais escassa. Quem souber construir relações de confiança com seus clientes, fornecedores, parceiros e com a sociedade como um tudo, ocupará uma posição privilegiada, inclusive do ponto de vista de negócios e de promoção à inovação.

Além disso, é preciso olhar também a questão da cibersegurança. Ainda são poucas as organizações no Brasil que atingiram um grau de maturidade desejado sobre esse assunto. Só para se ter uma ideia, só em 2017 ocorreram mais de 870 mil incidentes de cibersegurança no Brasil, de acordo com dados do Cert.br. Esse número elevado mostra a importância do tema para as empresas. Nesse sentido, a nova Lei Geral de Proteção da Dados pessoais trouxe uma série de novas obrigações nesse sentido. Hoje passou a ser obrigatório a criação de sistemas de segurança para acesso aos dados, uso de criptografia para sua proteção e adoção de medidas de prevenção de ataques, incluindo manter atualizados softwares e sistemas.

Mais do que isso, é preciso também lidar com o fator humano. O The Citizen Lab, instituto de pesquisa da Universidade de Toronto, vem apontando que o principal vetor de ataques atualmente é exatamente esse. O usuário ou funcionário da empresa, muitas vezes desavisado, que abre um email, mensagem ou arquivo de procedência maliciosa. Esses ataques estão cada vez mais sofisticados, ao utilizarem a chamada “engenharia social”. As mensagens muitas vezes se disfarçam de ofertas promocionais de serviços cobiçados (como Netflix), ou mesmo mensagens de amigos, conhecidos e parentes, cujo o nome é utilizado para enganar o destinatário. Quando uma mensagem como essa é aberta, isso pode comprometer os sistemas da organização. Como dá para ver, cibersegurança e proteção à privacidade são temas que andam juntos.

Por tudo isso, se nossos dados são a projeção de nós mesmos na rede, queremos que eles sejam tratados com todo o respeito, confiança e, por que não dizer, dignidade que se espera de um tratamento interpessoal. Afinal de contas, nosso eu-virtual e nosso eu-real estão cada vez mais se tornando um só.

Ronaldo Lemos é advogado, sócio do escritório Pereira Neto Macedo Advogados (www.pnm.adv.br), especialista em tecnologia e proteção de dados. Foi um dos criadores do Marco Civil da Internet e ajuda empresas e outras entidades a se adaptarem à nova Lei Geral de Proteção de Dados.

Fonte: Jusbrasil

XIX Encontro Nacional de Pequisa em Ciência da Informação – ENANCIB

O evento acontecerá no período de 22 a 25 de outubro de 2019

Créditos: XX ENANCIB UFSC.

Prof. Edivanio Duarte de Souza – PPGCI/UFAL

Na reunião de encerramento do XIX Encontro Nacional de Pequisa em Ciência da Informação (ENANCIB), realizada na última quinta-feira (25), a Associação Nacional de Pesquisa e Pós-Graduação (ANCIB) divulgou a sede do próximo ENANCIB. A vigésima edição do evento será realizada na cidade de Florianópolis, Santa Catarina, no período de 22 a 25 de outubro próximo, com a temática geral “A Ciência da Informação e a Era da Ciência de Dados”.

O Programa de Pós-Graduação em Ciência da Informação da Universidade Federal de Santa Catarina (PPGCIN/UFSC), que promoverá o evento, já divulgou parte da programação. A conferência de abertura “Data Savvy: software and data skills for library and information professionals” será proferida por Christopher Erdmann da California Digital Library e a conferencia de encerramento “Data science and music: ‘It’s a miracle’ or ‘Thriller'”, por Audrey Laplante da École de Bibliothéconomie et des Sciences da  Université de Montréal.

Além dessas conferências, o encontro contará ampla programação que inclui Fórum de Coordenadores de PPGCIs, Fórum de Coordenadores de Grupos de Trabalhos, Fórum de Editores Científicos, Feiras de Livros, Lançamentos de Livros, Prêmios de Teses e Dissertações, Prêmios de Melhores Trabalhos, e apresentações de trabalhos, comunicações orais e pôsteres, nos 11 GTs do ENANCIB, entre outras.

A programação oficial deverá ser divulgada nos primeiros meses do próximo ano e poderá ser acompanhada pelo site da ANCIB.

 

O Enancib

O Enancib, maior evento técnico-científico brasileiro da Ciência da Informação, é promovido pela ANCIB, desde o ano de 1994, com  o objetivo de aglutinar pós-graduandos (mestrandos e doutorandos) e pesquisadores do Brasil e do exterior.

Organizado anualmente por um dos PPGCIs afiliado à ANCIB, o evento é reconhecido nacional e internacionalmente, pelo volume e pela qualidade das pesquisas apresentadas.

A produção deste evento é qualificada e classificada no extrato B1 da Qualis, na área “Comunicação e Informação” da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES), conforme Documento de Área.

Fonte: Universidade Federal de Alagoas

XXXIX Semana de Estudos da Faculdade de Biblioteconomia – Ciência dos Dados na Era da Informação

Evento acontece de 27, 29, 30 e 31 de outubro e 1º de novembro, das 19h20 às 22h35, no Auditório Cardeal Agnelo Rossi, no Campus I

A Faculdade de Biblioteconomia da PUC-Campinas realiza nos dias 27, 29, 30 e 31 de outubro e 1º de novembro, a XXXIX Semana de Estudos da Faculdade de Biblioteconomia – Ciência dos Dados na Era da Informação, das 19h20 às 22h35, no Auditório Cardeal Agnelo Rossi, no Campus I da Universidade.

Segundo o Diretor da Faculdade de Biblioteconomia, Prof. Dr. César Antonio Pereira, a Semana busca fomentar discussões entre os acadêmicos. “Vamos socializar atividades pedagógicas que compreendam as tendências e perspectivas de atuação profissional, estimulando a reflexão dos alunos”, afirma.

Mais informações e inscrições no link: https://www.even3.com.br/39sefabi

Confira a programação:

Laboratório de Biblioteconomia

27/10 – Atividade Especial

Oficina – Contação de História com Elvis Campello (SENAC)

Horário: 14h às 16h30

Auditório Cardeal Agnelo Rossi

 

29/10 – 19h30

Abertura Oficial da Semana de Estudos

Apresentação Grupo de Dança do CCA

Palestra Ciência dos Dados e Estratégias de Informação

Palestrante:  Marcelus M R Santos (Teradata Corporation)

Auditório Cardeal Agnelo Rossi

 

30/10 – 19h30

Apresentação Discente (Cultural, Artística, entre outros)

Palestra “Ciência e análise dos dados: o caso Watson da IBM”

Palestrante:  Claudio Pinheiro (IBM Cloud Analytics | TLC – Technology Leadership Council – Brazil)

Auditório Cardeal Agnelo Rossi

 

31/10 – 19h30

 Mostra de Inovação da Biblioteconomia: divulgação de projetos desenvolvidos por discentes para promoção da Leitura e da Biblioteconomia.

Palestra “Ciência dos Dados e Biblioteconomia: uma relação possível?”

Palestrante: Guilherme Sepe (Elsevier)

Auditório Cardeal Agnelo Rossi

 

01/11 – 19h30

Apresentação discente – 8º período – Apresentação Cultural, artística, entre outros

Palestra “Da Ciência dos Dados ao E-Science: diretrizes e políticas estratégicas”

Palestrante: Jonathan Contes (Brazil Regional Sales Manager at EBSCO Information Services (Books and Journals expertise)

Fonte: PUC Campinas

Seminário Gestão de Dados de Pesquisa Unifesp e UFABC

A Coordenadoria da Rede de Bibliotecas e a Pró-Reitoria de Pós-Graduação e Pesquisa da Universidade Federal de São Paulo (Unifesp) e o Sistema de Bibliotecas da Universidade Federal do ABC (UFABC) convidam os pesquisadores, docentes, discentes e técnicos administrativos a participarem do debate sobre as boas práticas na gestão de dados de pesquisa.

O encontro visa debater em comunidade os novos rumos da gestão dos dados de pesquisa para se criar uma cultura institucional de curadoria dos dados de pesquisa, além de discutir o valor do dado coletado e não armazenado adequadamente e o reuso destes dados.

Serviço:
I Seminário Gestão de Dados de Pesquisa Unifesp e UFABC
Datas e horário: 27/08, das 8h30 às 16h, e 29/08, das 9h às 17h
Local: Anfiteatro da Reitoria da Universidade Federal de São Paulo
End.: Rua Sena Madureira, 1.500 – térreo, Vila Clementino, São Paulo/SP
Programação e inscrição

¿Cuáles son las habilidades necesarias de un un bibliotecario de datos?

Lisa Federer. “Defining Data Librarianship: A Survey of Competencies, Skills, and Training”.Journal of Medical Librarianship (JMLA). Vol 106, No 3 (2018)

Texto completo

Encuesta

La gestión de datos de investigación aparece como una de las tendencias clave en el trabajo que desarrollará el bibliotecario universitario del siglo XXI; si bien, al tratarse de un área emergente y en continua evolución, aún no están definidas las habilidades y competencias del bibliotecario de datos, en general, la tarea del bibliotecario de datos implica una amplia comunidad de bibliotecarios con diversas capacidades, antecedentes y responsabilidades profesionales. El artículo analiza las opiniones de 90 profesionales que están proporcionando algún servicio relacionado con datos, y esboza algunas de las habilidades y competencias que están desarrollando.

Muchos bibliotecarios están asumiendo nuevos roles en los servicios de datos de investigación. Sin embargo, el campo emergente de la biblioteconomía de datos, incluidos los roles y competencias específicos, no se ha establecido claramente. Este estudio tiene como objetivo definir mejor la biblioteca de datos mediante la exploración de las habilidades y los conocimientos que utilizan los bibliotecarios de datos y la capacitación que necesitan para tener éxito en esta área emergente.

Para conocer la formación y competencias de los bibliotecarios de datos se encuestó sobre su trabajo diferentes bibliotecarios que realizan trabajos relacionados con datos, y se les pidió que calificaran la relevancia de un conjunto de habilidades y conocimientos profesionales relacionados con los datos. Los encuestados consideraron una amplia gama de habilidades y conocimientos importantes para su trabajo, especialmente las “habilidades básicas” y las características personales, tales como las habilidades de comunicación y la capacidad de desarrollar relaciones con los investigadores. En general, las habilidades tradicionales de la biblioteca, como la catalogación y el desarrollo de colecciones, se consideraron menos importantes. Un análisis de agrupamiento de las respuestas reveló dos tipos de bibliotecarios de datos: generalistas de datos, que tienden a proporcionar servicios de datos en una variedad de campos, y especialistas en temas, que tienden a proporcionar servicios más especializados a una disciplina concreta.

Los hallazgos de este estudio sugieren que los bibliotecarios de datos proporcionan una amplia gama de servicios a sus usuarios y, por lo tanto, necesitan una variedad de habilidades y experiencia amplias. Estos hallazgos también tienen implicaciones tanto para la contratación de bibliotecarios de datos por parte de las instituciones, como para las escuelas de biblioteconomía, que podrían considerar adaptar sus planes de estudios para preparar mejor la formación de sus estudiantes para roles de bibliotecarios de datos.

Los resultados del estudio sugieren que los bibliotecarios de datos son una comunidad heterogénea de profesionales de la información con antecedentes educativos y profesionales variados, que realizan muchos tipos diferentes de trabajo. Las opiniones sobre cuáles son las competencias y habilidades necesarias difieren entre las opiniones manifestadas por los propios bibliotecarios de datos acerca de los tipos específicos de conocimientos especializados que son importantes, y los tipos de trabajo que realizan los diferentes bibliotecarios de datos que pueden ser muy divergentes. La existencia de dos grupos de profesionales similares, descritos aquí como especialistas en la materia y generalistas de datos, sugiere que la Biblioteconomía de datos puede no ser una función única, sino más bien una disciplina que permite a los profesionales centrarse en áreas relacionadas con sus propios intereses o las necesidades de sus usuarios.

Los generalistas de datos, con un amplio conocimiento de cómo se usan los datos a través de varias áreas temáticas o habilidades, pueden ser muy adecuados para trabajar en entornos académicos en los que tendrán oportunidades de involucrarse con estudiantes, profesores e investigadores en una variedad de disciplinas. Por otro lado, los especialistas en un tema que desarrollan unas pocas habilidades especializadas y tienen una experiencia práctica trabajando con grupos de usuarios específicos pueden ser una buena opción para una institución en la que puedan centrarse más específicamente en el tipo de usuarios que pueden beneficiarse de su experiencia.

El estudio muestra que la mayoría de los bibliotecarios de datos consideran unas diez habilidades que son “absolutamente esenciales” para su trabajo, además se realizó un análisis de contenido de las ofertas de empleo, en las que se requerían unas veinte habilidades. En lugar de adoptar un enfoque que incluya una amplia gama de habilidades, las instituciones que buscan contratar a un bibliotecario de datos pueden, de hecho, identificar a los candidatos que encajan mejor reflexionando sobre cuáles son las necesidades específicas de la institución, así como qué tipos de habilidades profesionales de los bibliotecarios de datos consideran más esenciales, tal como se identifican en investigaciones como el presente estudio, donde se especifican 10 habilidades y competencias fundamentales:

  1. Gestión de datos. a. Planificación de la gestión de datos. b. Preservación, conservación administración de datos. c. Desarrollo o aplicación de ontologías y metadatos. d. Apoyo a los recursos de datos. e. Soporte para la gestión de datos clínicos. f. Soporte para la gestión general de datos. g. Soporte bioinformático. h. Soporte para el uso y análisis de datos. i. Apoyo al repositorio institucional. j. Desarrollo de servicios de datos

  2. Tecnología de la información (TI) a. Visualización de datos. b. Programación científica. c. Software estadístico. d. Desarrollo y mantenimiento de sitios web. e. Software y datos del Sistema de Información Geográfica (SIG)

  3. Evaluación y valoración. a. Evaluación de clases o programas de instrucción. b. Evaluación de servicios. c. Evaluación de las necesidades

  4. Enseñanza e instrucción. a. Instrucción integrada en el curso. b. Desarrollo del contenido del curso o currículo. c. Desarrollo de tutoriales en línea, materiales del curso o guías instructivas. d. Consulta o instrucción individualizada. e. Formación del personal o de los bibliotecarios.

  5. Comercialización y divulgación. a. Servicios de enlace específicos de datos. b. Servicios generales de enlace de la biblioteca. c. Medios de comunicación social. d. Desarrollar relaciones con investigadores, profesores, etc.

  6. Habilidades bibliotecarias.a. Desarrollo de colecciones. b. Servicio de bibliotecas y comités institucionales. c. Apoyo de referencia. d. Búsqueda de literatura y apoyo a la revisión sistemática. e. Apoyo a la comunicación académica (derechos de autor, apoyo a la publicación académica, etc.). f. Catalogación.

  7. Implicación profesional.a. Membresía. b. Participación en actividades de educación continua o de desarrollo profesional. c. Realización de investigaciones y/o redacción de artículos en revistas.

  8. Habilidades y atributos personales. a. Habilidades de servicio al cliente. b. Innovación y creatividad. c. Habilidades de comunicación oral y presentación. d. Habilidades de comunicación escrita. e. Habilidades de supervisión. f. Habilidades de enseñanza. g. Habilidades de trabajo en equipo e interpersonales. h. Habilidades de gestión y liderazgo.

  9. Educación y capacitación.a. Maestría acreditada. b. Maestría en ciencias. c. Otras maestrías. d. Licenciatura en ciencias. e. Doctorado (PhD). f. Certificación de bibliotecología especializada.

Como señalaron varios encuestados, la capacitación continua es esencial para asegurar que los bibliotecarios de datos se mantengan actualizados en un campo que evoluciona rápidamente, por lo que las instituciones pueden considerar la posibilidad de proporcionar tiempo y fondos para que los bibliotecarios de datos continúen dicha capacitación.

Dada la naturaleza emergente del campo, los bibliotecarios de datos a menudo se encuentran en posición de implementar servicios nuevos y no probados anteriormente. Por lo que el liderazgo de proyectos de datos será importante para los profesionales y la institución debido a que la gestión de datos de investigación conlleva un amplio alcance, que incluye el compromiso de las partes interesadas de más alto nivel de la institución, beneficiándose así de la capacidad de liderazgo en la formación de relaciones y el impulso de proyectos de datos.

El apoyo a las necesidades de datos de los investigadores es un objetivo cambiante, con tecnologías en constante evolución y un panorama político que cambia rápidamente. Los bibliotecarios de datos deben estar al tanto de las necesidades de sus instituciones para asegurarse de que sus habilidades, conocimientos y competencias siguen siendo pertinentes y actualizadas. Las instituciones encargadas de la formación de profesionales y las organizaciones profesionales deben mantenerse al día sobre las tendencias en este campo en rápida evolución para asegurarse de que sus planes de estudio y programas de educación continua sean adecuados para preparar a los profesionales de la información para que asuman nuevas funciones de bibliotecarios de datos.

Fonte: Universo Abierto

Gestão de dados é desafio para a pesquisa

Na rapidez dos nossos dias digitais a gestão de dados tem sido um desafio, especialmente em empresas de pesquisa, como a Embrapa. O tema foi debatido no dia 12 de junho na Embrapa Solos (Rio de Janeiro-RJ), no workshop ‘Gestão de dados de pesquisa: princípios, desafios e oportunidades’.

Iniciativas anteriores na Embrapa e os projetos especiais GoviE e Transformação Digital, desde a última década, têm dado atenção ao assunto. “A mudança é grande, em algumas instituições na Europa cadernos de laboratório, por exemplo, já são abertos em tempo real”, revela a bibliotecária da Embrapa Solos, Claudia Delaia.

Atualmente, o dado é tão valioso quanto o resultado do trabalho do qual ele faz parte, é um ativo. A mesma informação pode servir e ser analisada em diferentes áreas do conhecimento. Se, por um lado, isso facilita a disseminação da informação, também traz algum risco. “Ainda não temos tecnologias que nos assegurem a rastreabilidade do dado e por onde ele circula”, diz Delaia.

E vale lembrar que a produção da informação não vem de graça. Custa dinheiro mandar o cientista para o campo: são gastos com equipamento, alimentação, deslocamento e dedicação dos especialistas.

E a pressão por disponibilização do resultado das pesquisas também vem das editoras. Alguns periódicos científicos só publicam artigos mediante a assinatura de termo de liberação de dados. “E, algumas vezes, essa disponibilização poder entrar em conflito com as regras da Embrapa, se não for tomado o devido cuidado”, lembra Claudia.

No evento do dia 12 foi demonstrado, pelo professor da Universidade de Twente (Holanda), Luiz Olavo Bonino, um conjunto de tecnologias e soluções criadas para facilitar a criação, publicação, indexação de dados e metadados FAIR (informação acessível, reutilizável, interoperacional e fácil de achar).

Novo tempo para o bibliotecário

Numa instituição como a Embrapa, um dos profissionais mais qualificados para trabalhar com essa informação em movimento é o bibliotecário, como apontam artigos científicos. O profissional que atua nas bibliotecas possui experiência e formação na gestão da informação, que vai desde o tratamento da informação e na atribuição de metadados até a sua disponibilização. Mas não é o único, são necessários profissionais em tecnologia da informação, semântica, ontologias etc.

O interesse pelo tema despertou a atenção da academia. No Rio de Janeiro, a UNIRIO (parceira da Embrapa Solos na realização do Workshop), passou a oferecer um curso de mestrado profissional em gestão de dados de pesquisa aberto a profissionais de várias áreas, não apenas da biblioteconomia, que está com edital aberto.

O workshop ‘Gestão de dados de pesquisa: princípios, desafios e oportunidades’ foi transmitido para todos os centros de pesquisa da Embrapa e contou com apoio da Embrapa Informática Agropecuária e Embrapa Territorial, ambas de Campinas, e da Secretaria de Desenvolvimento Institucional (Brasília) da Embrapa. Estavam conectadas 11 Unidades da Embrapa, com mais de 100 pessoas assistindo via internet e no auditório.

Texto por Carlos Dias

Fonte: Grupo Cultivar

WICI 2018 — XII Workshop Internacional em Ciência da Informação

A Ciência da Informação e a Ciência de Dados: redes, mídias e metrias

O XII Workshop Internacional em Ciência da Informação (WICI) tem como propósito discutir avanços nos estudos da Ciência de Dados como elemento alavancador do potencial de pesquisa na Ciência da Informação. A proposta do evento é atuar como elemento facilitador na troca de conhecimento e colaboração entre estudantes, pesquisadores e profissionais que já atuam na área ou que desejam incorporar os conhecimentos e ferramentas tecnológicas em seus contextos de trabalho.

O evento busca promover a incorporação de novos recursos e conhecimentos à comunidade científica, no âmbito da Ciência da Informação, difundindo o uso de métodos da Ciência de Dados como elemento estratégico para a interpretação e compreensão de diferentes processos de interação e gestão do conhecimento científico.

A Ciência de Dados, ou Data Science em inglês, tem se tornado um objeto de estudo com potencial para grandes mudanças tanto na academia quanto na sociedade. A ciência dos dados é um campo interdisciplinar de métodos, processos e sistemas científicos para extrair conhecimento ou insights de dados em várias formas, estruturadas ou não estruturadas. Ela emprega técnicas e teorias de vários campos dentro de áreas de conhecimento como a estatística, ciência da informação e ciência da computação.

Trabalhando com grandes coleções de dados e utilizando o arcabouço teórico da CI é possível avaliar e visualizar padrões, identificar interações, reconhecer influências, compreender o fluxo de informação entre pesquisadores e outros, e em última instância, fazer a gestão do conhecimento em diferentes contextos.

O XII WICI está em consonância com os recentes avanços tecnológicos na área da pesquisa e educação, onde alunos e profissionais demandam conhecimentos alinhados com a crescente proposta tecnológica como o Big Data, Inteligência Artificial (IA) e outros temas.

As palestras e oficinas são gratuitas mas as vagas são limitadas. Em se alcançando o limite de vagas nas oficinas será solicitado a confirmação de participação. (Clicar aqui para realizar a inscrição para o evento)

Link para outras páginas:

Programa do Evento

Fonte: Ricardo Barros Sampaio

TOI IV – I Simpósio Big Data, Data Analytics e Inteligência Artificial

CONTRIBUIÇÕES PARA CIÊNCIA DA INFORMAÇÃO

Evento GRATUITO – VAGAS LIMITADAS – CERTIFICADO DE PARTICIPAÇÃO USP

Inscrição

OBJETIVO
A Ciência da Informação engloba os diversos meios utilizados para comunicação, sejam estes digitais ou analógicos, estruturados ou não estruturados. Todo esse universo informacional é que compõem o que hoje denominamos “BIG DATA” – dois milhões e meio de milhões de milhões, mais precisamente, 2.5 seguido de 18 zeros: 2.5 quintilhões. Essa é a quantidade de dados gerados em toda a internet por dia. Para extrair conhecimento deste emaranhado de dados se faz necessário desenvolver mecanismos robustos de análise, o que denominamos “Data Analytics”. Devido ao crescimento exponencial destes volumes de dados nos deparamos com a necessidade de aprendizado automático, ou seja, a utilização de algoritmos que capacitem o aprendizado de máquina, a base para “Inteligência Artificial”. Neste cenário, o SIMPÓSIO BIG DATA, DATA ANALYTICS E INTELIGÊNCIA ARTIFICIAL, se propõem a debater a inter-relação de cada uma destas disciplinas bem como as diversas etapas a serem cumpridas para a adoção bem-sucedida da gestão orientada a dados.

PÚBLICO ALVO
O I SIMPÓSIO BIG DATA, DATA ANALYTICS E INTELIGÊNCIA ARTIFICIAL tem coo foco profissionais da informação, pesquisadores, estudantes, executivos, gestores, analistas, especialistas e consultores que atuam na área de gestão e organização da informação e desejam transformar dados em informação e conhecimento, desempenhar papéis de liderança e participar ativamente de projetos de natureza analítica.

LOCAL
Local – USP – Escola de Comunicação e Artes (ECA) – Auditório Lupe Cotrim – 1º andar
Dia – 22 de maio de 2018
Horário – 14h às 17h30

Mais informações: http://www.toiomtid.com.br/toi-iv-i-simposio-big-data/

Relato – Workshop Governança de dados – Google Analytics – por Leonela Souza de Oliveira

Leonela participou de um Workshop da Google Analytics sobre Governança de Dados e contou tudo pra gente!

Fonte: Google Imagens

A palestrante Renate Land explanou sobre pontos cruciais da governança de dados, apresentando os conceitos de gestão da informação (processamento) e inteligência de negócio (Business Inteligence) coleta, organização, análise e monitoramento das informações que se desemboca na governança de dados, campo fértil de atuação, sobretudo para os bibliotecários.No último dia 14 de março de 2018 participei do 1º workshop: Governança de dados: um fator crítico de sucesso na gestão da informação e inteligência de negócio, conduzida pela Renate Landatual diretoria executiva e sócio fundadora da empresa Egrégora Inteligência, além de bibliotecária.

A sociedade moderna consome informação o tempo inteiro por meio das tecnologias. Nas empresas esta prática não é diferente.  A governança de dados é de extrema importância, especialmente quando alinhada à gestão da informação e a inteligência de negócio, no desenvolvimento e migração de sistemas de informação. Ao fazer o processo de captação dos dados gravadas de um banco de dados, se faz necessária a modelagem dos dados, bem como a operação e a segurança dos dados, e fontes de dados de referência. No entanto, o mercado ainda patina no quesito “governança de dados”.

Olha aí a brecha em que o bibliotecário pode atuar. A partir da implantação de um sistema de informação em uma empresa, novos procedimentos serão criados, e serão necessários profissionais para fazer a gestão do conteúdo (estrutura e acesso dos dados), padrão de metadados (formato, tipo definição dos dados) e analisar a qualidade dos dados (monitoramento, avaliação dos dados de origem).

Bom galera, este foi um apanhado do que rolou no workshop. Ficou interessado em saber mais? Então anota na agenda:  ocorrerá em 5 de abril de 2018, o 2º workshop sobre Governança dos dados. Mais informações podem ser consultadas no site https://egregorainteligencia.com.br/.

Relato produzido pela recém-formada em biblioteconomia e ciência de informação Leonela Souza de Oliveira.

Postado por Monitoria Científica FaBCI/FESPSP

Palestra: Gestão de Dados de Pesquisa: o que os Bibliotecários (e as Bibliotecas) tem a ver com isso?

O objetivo do evento é mostrar e valorizar o importante papel do bibliotecário frente às novas tecnologias, a gestão dos dados de pesquisa e o apoio ao pesquisador na prestação de serviços nas bibliotecas das instituições universitárias. 

Elisabeth Adriana Dudziak: Doutora em Engenharia de Produção pela Escola Politécnica da USP (2007). Mestre em Ciência da Informação pela ECA-USP (2001), Bacharel em Biblioteconomia pela ECA-USP (1984). Professora Titular da Universidade Paulista – UNIP no Instituto de Ciências Humanas. Chefe Técnica da Divisão de Gestão de Desenvolvimento e Inovação (DGDI) do Sistema Integrado de Bibliotecas da USP.

Inscrições Gratuitas pelo Link: https://goo.gl/forms/GndJJuFxvKPiZf0b2

Assista a palestra ao vivo pelo link: webconferencia.sead.ufscar.br/eventos
(Obs: O link estará disponível apenas no dia e horário reservado.)

Evento com certificado de participação.

Fonte: Dia do Bibliotecário

Seminário de Gestão de Dados de Pesquisa e Boas Práticas para o Desenvolvimento da Ciência

Dia: 9 de março de 2018
Local: São Paulo – SP

Evento em Comemoração ao Dia do Bibliotecário

O universo da ciência está em constante e avassaladora expansão. Para manter a integridade, a eficiência e a reprodutibilidade das pesquisas, pesquisadores, bibliotecários, universidades, financiadores e editores devem garantir que os dados relevantes relacionados aos resultados e às publicações geradas pelas pesquisas estejam organizados, armazenados, preservados e acessíveis, permitindo sua verificação e eventual reutilização.

Objetivos: 

Discutir os diferentes aspectos que envolvem boas práticas e a gestão de dados de pesquisa do ponto de vista do pesquisador e da universidade

Explorar o ecossistema da comunicação científica, considerando o envolvimento de financiadores e editores de publicações científicas

Evidenciar o papel do bibliotecário e das bibliotecas no suporte à gestão de dados de pesquisa
ApoioDot.Lib – ORCID – ITMS

O evento será transmitido pelo IPTV da USP. Link em breve.