A tecnologia, a Internet e a perda de privacidade

Hoje, somos todos famosos (ou quase). Ao menos, essa é a percepção que temos ao procurarmos nossa trilha digital na Internet: perfis em redes sociais, participação em seleções, comentários em portais de notícias e até divulgação em sites próprios “confirmam” nossa existência. Soma-se a esse processo o acompanhamento de empresas como Google e Facebook, que conseguem saber onde estivemos, com quem interagimos, os assuntos que procuramos e até as fotos nas quais aparecemos. Todo esse movimento tem transformado a vida privada em um espetáculo público, com exposição constante e rastreamento de todas as nossas experiências.

Se a tecnologia é uma facilitadora para guardar e organizar dados, permitindo que tenhamos acesso a documentos e fatos que seriam encontrados há alguns anos apenas em procuras extensas em bibliotecas, ela também pode ser um perigo se não for bem administrada. E, em grande parte das vezes, a culpa é do próprio usuário. Muito do que expomos sobre nosso cotidiano é por escolha. Seja pelas publicações que disponibilizam dados que podem comprometer a segurança (quantas vezes já vimos casos nos quais os sequestradores arquitetaram seus planos com informações extraídas de mídias sociais?), seja por aceitarmos as condições propostas em dezenas de linhas – que geralmente não lemos – para ter acesso a diversos serviços gratuitos ou pagos.

O famoso caso da Cambridge Analytica, que utilizou de maneira indevida os dados de mais de 87 milhões de usuários do Facebook, repercutiu nos últimos meses pela dimensão do impacto. Devido a brechas da maior plataforma social do mundo, a Cambridge teve acesso a informações de pessoas além das que consentiram com os termos do “thisisyourdigitallife”. Tudo isso foi supostamente utilizado em campanhas eleitorais nos Estados Unidos e podem ter influenciado na vitória de Donald Trump, na corrida presidencial de 2016. Desde então, o Facebook tem buscado formas de prover mais segurança, mas a própria mídia social fatura ao utilizar as informações que compartilhamos com ela – não seria um paradoxo?

Nesse cenário, é interessante apontar o que poucos levam em consideração. Ao menos, observamos a preocupação de aplicações para computadores e smartphones sobre medidas de segurança de dados. Mas o que acontece quando incluímos a Internet das Coisas nessa equação? Qual a quantidade de dados estamos fornecendo sem sermos questionados se queremos mesmo compartilhá-los? E o mais importante: o que tem sido feito com essas informações? Seria mesmo a perda de privacidade um fator que pode influenciar na nossa perda de liberdade?

Não podemos apenas demonizar esse processo, até porque também nos beneficiamos da “perda de privacidade” – isso quando ela é compartilhada de forma controlada e utilizada com inteligência. Por exemplo, receber sugestões de filmes ou notícias conforme seus gostos pode ser um facilitador (além de que, ao saber nossas preferências, as empresas podem se adequar para atender melhor às necessidades). Somos tratados como indivíduos e tudo passa a ser personalizado. Entretanto, até que ponto não prejudica quando o que deveria ser privado se torna público?

De toda a exposição que temos nos dias atuais tem algo que realmente é uma perda. Não existe mais o direito ao esquecimento. O passado acaba sempre voltando, com tantas informações disponíveis, muitas das quais passamos a perder o controle. O conteúdo disponibilizado na Internet reverbera: é compartilhado, copiado, roubado. Estar conectado tem um preço. A vida online influencia diretamente a offline. O que deve prevalecer nesses casos é o bom senso e o maior desafio está em encontrar o ponto de equilíbrio entre a exposição e a privacidade.

* Fernando Matesco é diretor técnico do Instituto das Cidades Inteligente (ICI)

 

Cidades Inteligentes: economia compartilhada utilizando a tecnologia blockchain

Muitas cidades se definem inteligentes quando identificam características de conectividade, inclusão digital, força de trabalho e conhecimento. Por meio de aplicações inovadoras e de tecnologias, elas apoiam a partilha comunitária envolvendo elementos cumulativos, como governança, mobilidade, uso inteligente de recursos naturais, cidadãos e economia. Devido à dinâmica de restrição de espaços e alta densidade populacional, as cidades são naturalmente concebidas para compartilhar economias com consumo. Porém, se suas melhorias são setoriais ou limitadas, elas não podem ser chamadas de inteligentes.

A transformação de cidades em inteligentes beneficia o uso de recursos urbanos como espaço, transporte, serviços, alimentos, bens e dinheiro. E a economia compartilhada permite o emprego desses recursos de forma colaborativa, definindo um modelo socioeconômico que permite o uso de ativos subutilizados, num sistema em que a oferta e demanda interagem para uma melhor oferta de produtos e serviços.

Do lado da oferta, os indivíduos podem oferecer coisas como aluguel de curto prazo de seus veículos ociosos ou salas extras em seus apartamentos ou casas. Do lado da demanda, os consumidores podem se beneficiar em alugar bens a um preço menor ou com gastos transacionais mais baixos do que comprar ou alugar por meio de um provedor tradicional. E esse compartilhamento, facilitado pela tecnologia e pela internet, já é uma realidade: Airbnb, Snap-Goods, Uber e RealyRides são exemplos de conexões que desbloqueiam o valor inerente ao compartilhamento de recursos sobressalentes em plataformas e oferecem muitas vantagens para atrair os dois grupos por meio de efeitos de rede.

Por meio da tecnologia, compartilhar economia fornece a base dessas inovações de maneira imediata, contribuindo para que uma cidade se torne inteligente. Com uma infraestrutura tecnológica significativa, a forma como os recursos são compartilhados é transformada, sendo o capital humano destacado nesse cenário, uma vez que a inteligência das cidades leva em consideração, acima de tudo, o bem-estar da sociedade. Assim, os cidadãos podem liderar vidas criativas, embora ainda encontrem uma barreira para a tão esperada revolução: a confiança.

Apesar de uma cidade inteligente ser feita para o cidadão, sua inovação esbarra exatamente nele. Dentre todos os outros fatores humanos, confiar é o mais importante desafio da economia compartilhada, uma vez que se trata de um sistema dependente de outros usuários.

Para atingir com sucesso essa ideia, uma alternativa seria o uso da tecnologia blockchain, pois ser “livre de confiança” é uma característica central dos relacionamentos dos indivíduos na abordagem baseada em blocos. Com a eliminação de intermediários, redução dos custos operacionais e aumento da eficiência de um serviço de compartilhamento, os indivíduos têm autonomia sobre os registros de cada transação realizada, que são inseridos na rede.

Nos serviços de compartilhamento, a confiança não é colocada em um indivíduo, mas sim distribuída em toda a população. O uso das autoridades centrais é substituído por uma comunidade de pares na forma de uma rede peer-to-peer. Sendo assim, ninguém pode tomar ações unilateralmente em nome da comunidade e os serviços de compartilhamento acabam sendo democratizados e livres de confiança. Nessa hipótese, o software pode automatizar grande parte do processo de transação, permitindo que as promessas contratuais sejam aplicadas sem envolvimento humano. Simples. Prático. Seguro. E, assim, cidades realmente inteligentes.

*Débora Morales é mestra em Engenharia de Produção (UFPR) na área de Pesquisa Operacional com ênfase a métodos estatísticos aplicados à engenharia e inovação e tecnologia, especialista em Engenharia de Confiabilidade (UTFPR), graduada em Estatística e em Economia. Atua como Estatística no Instituto das Cidades Inteligentes (ICI).

Ciência de dados e o perfil do cientista de dados

Nunca se gerou tanta informação como nos dias atuais – e essa informação é originada a partir de dados. Dados produzidos por sistemas, celulares, sensores, câmeras, dispositivos de segurança, tudo isso em grande volume e velocidade.

Nesse contexto, entra o papel da ciência de dados, trazendo ferramentas, métodos e tecnologias para analisar, visualizar e tomar decisões a partir dos dados. A ciência de dados é um processo, não um evento. É o processo de usar dados para entender o mundo, é a arte de descobrir os insights e tendências que estão escondidos atrás dessas informações.

A ciência de dados em si é uma área interdisciplinar que envolve várias áreas de conhecimento, tais como: estatística, matemática, programação, computação e conhecimento de negócios. Essas áreas corroboram com técnicas e teorias como a modelagem, análise preditiva, mineração e visualização de dados.

A ciência de dados se baseia em três pilares. O primeiro pilar é base, que se vale da matemática e da estatística, utilizando as regras de Machine Learning, necessárias para a criação de modelos preditivos de análise de dados. O segundo pilar refere-se à área de negócio. É daqui que surgem os problemas específicos que necessitam da ciência de dados para serem resolvidos. Marketing, vendas, finanças, saúde, entre outras áreas, são o ponto de partida para os projetos em que os dados serão coletados e analisados com objetivo de responder perguntas formuladas pelas áreas de negócio.

O terceiro pilar é a ciência da computação. Neste caso, estamos falando da programação de computadores, infraestrutura de banco de dados, armazenamento e segurança. Essa área de conhecimento vai oferecer as ferramentas necessárias para análise, além de permitir a automatização do processo. Novas tecnologias de banco de dados, como NoSQL, começam a ganhar cada vez mais espaço no mercado, uma vez que o volume, variedade e velocidade de dadosexige novas formas de armazenamento.

As empresas estão cada vez mais cientes que precisam tomar decisões baseadas em informações, principalmente aquelas que pensam sobre Big Data. Sendo assim, nunca houve um melhor momento para ser um cientista de dados.

Um cientista de dados precisa de alguma familiaridade com plataformas de análise, mas esse ponto dispõe apenas suas habilidades técnicas. Além do conhecimento técnico, há outras características que até podem ser apontadas como mais importantes. O perfil do cientista de dados é ser curioso, extremamente argumentativo e julgador. Curiosidade é absolutamente necessária. Se você não é curioso, não sabe o que fazer com os dados. Julgador porque, se você não tiver noções preconcebidas, não sabe por onde começar. Argumentativo porque, se você pode argumentar, então pode defender um caso ou, pelo menos, começar em algum lugar. Então, aprende com os dados e poderá modificar suas suposições e hipóteses.

E a última coisa que um cientista de dados precisa ter é a capacidade de contar uma história. Uma vez que você tem sua análise e suas tabulações, deve ser capaz de contar uma grande história a partir delas.

Lembre-se: comunicação é um dos requisitos principais de um cientista de dados. Afinal, de nada adianta realizar um excelente trabalho de análise se você não for capaz de mostrá-lo e contar uma história por meio das informações.

*Débora Morales é mestra em Engenharia de Produção (UFPR) na área de Pesquisa Operacional com ênfase a métodos estatísticos aplicados à engenharia e inovação e tecnologia, especialista em Engenharia de Confiabilidade (UTFPR), graduada em Estatística e em Economia. Atua como Estatística no Instituto das Cidades Inteligentes (ICI).

Overview OpenLDAP – Autenticação e serviços

Por Márcio Flavio Luiz

O LDAP – acrônimo de Lightweight Directory Access Protocol, ou Protocolo Leve de Acesso a Diretórios, em português – é baseado em X.500 e atua sobre o protocolo TCP. Ele utiliza duas portas: a 389, em que as transações entre cliente e servidor não são criptografadas; e a 636, quando essas transações são realizadas utilizando criptografia por meio de certificados gerados a partir do OpenSSL.

O funcionamento do LDAP é baseado no modelo cliente-servidor. Um ou mais servidores possuem os dados gravados em banco de dados Berkeley, que é um banco de dados do tipo não relacional. O processo de gravação e leitura desses dados utiliza mecanismos do próprio serviço e basicamente são utilizadas duas funções: a de leitura e a de escrita. Na leitura o cliente faz a pergunta para o servidor, que responde conforme as premissas enviadas pelo cliente. Já na escrita, o cliente envia para o servidor os dados que deverão ser gravados, mas eles só serão gravados se a lista de objetos/atributos estiverem disponíveis e respeitarem as políticas de escrita predefinidas no serviço do LDAP.

Esse serviço geralmente é utilizado para prover uma base de dados, em que são criados objetos organizados em árvore de maneira lógica e hierárquica, armazenando informações por atributos com valores determinados, que serão utilizados para filtros de pesquisas e validações. Os atributos, por sua vez, são disponibilizados via objectClasses previamente carregados por meio do arquivo de configurações do serviço, e o conjunto de atributos que cada objectClass disponibiliza são descritos e criados nos arquivos de schemas – local em que informamos o tamanho do campo, OIDs e a obrigatoriedade de utilização dos atributos.

Sem que possamos perceber, o LDAP é utilizado em várias soluções como back-end de armazenamento em estrutura de diretórios, como por exemplo: Active Directory da Microsoft, iDirectory da Novel e Tivoli da IBM. Embora pertençam a fabricantes diferentes, a maneira como são organizados e os métodos utilizados para gravação, modificação e leitura desses dados estão descritos na RFC 5411 (https://tools.ietf.org/html/rfc4511). Em alguns casos, algumas funções são criadas de forma específica por cada fabricante, porém, sempre respeitando a RFC.

Atualmente, o OpenLDAP pode ser integrado à maioria dos serviços e também utilizado para outros fins. Usando como exemplo o case do Instituto das Cidades Inteligentes (ICI), a infraestrutura de LDAP foi desenhada para funcionar de forma ininterrupta, com alta disponibilidade e preparado para um grande crescimento. Ele é administrado pela ferramenta de gestão de domínios OpenDC e baseado em processos do ITIL, fazendo com que essa base de dados tenha também uma vertente para a gestão de serviços. A ferramenta OpenDC é uma solução desenvolvida em Java e suas ações são realizadas diretamente na camada do serviço de diretórios, mas existem outros meios de se criar, alterar e ler os objetos criados na base de dados. Além disso, o LDAP é utilizado como repositório de configurações utilizadas nos serviços do Squid e essa estratégia também é utilizada na solução de mensageria com Zimbra.

No nível de autenticação, grande parte das liberações de acesso aos serviços e aplicações utiliza grupos, nos quais são inseridos usuários que possuem tais permissões, como no proxy, em que a utilização desses grupos chega ao nível de perfis de acesso. Nesse caso, foram utilizados mecanismos que aperfeiçoam as buscas, fazendo com que a procura por um determinado objeto na árvore de diretórios se torne mais objetiva, rápida e que, principalmente, não degrade o desempenho do serviço, que atualmente recebe em torno de 3.000 conexões por segundo.

A escolha pelo OpenLDAP foi definida a partir dos princípios da utilização da solução de software livre e para que qualquer alteração na estrutura e desenho da árvore de diretórios não ficasse de forma engessada, como acontece em outras soluções disponíveis no mercado. Atualmente, a base de conhecimento é bastante extensa, visto que grande parte da comunidade utiliza o OpenLDAP. Além disso, o OpenLDAP é muito flexível e possibilita várias customizações e adequações conforme a necessidade do negócio.

Márcio Flavio Luiz é analista de Infraestrutura de TI no Instituto das Cidades Inteligentes (ICI), onde atua na equipe de suporte nível III, com especialidade em Linux. Formado em Redes de Computadores, pós-graduado em Redes e Segurança de Sistemas e cursando atualmente a pós-graduação em Virtualização de Redes e Computação em Nuvem.

Malware, riscos e métodos de proteção

Por Gustavo Valenga

Malware nada mais é do que um programa ou código criado e desenvolvido para executar atividade maliciosa em computadores, servidores, tablets e celulares, prejudicando o desempenho ou a segurança do equipamento.

O termo malware é a abreviação em inglês de “malicious software“, e é utilizado para se referir de uma forma geral aos softwares maliciosos como vírus, worms, Cavalos de Tróia, keylogger e ransomwares.

Recentemente, tivemos um notável aumento de ciberataques por meio de ransomware (‘ransom’ faz referência ao termo em inglês para resgate, e ‘ware’ faz referência a software). O mais famoso, que certamente entrará para a história, é o ransomware WannaCry, que afetou usuários e empresas em escala mundial em maio deste ano.

O malware do tipo ransomware surgiu como uma grande ameaça para empresas e organizações de todos os tamanhos. Ele bloqueia, criptografa ou de alguma forma impede que dados e sistemas sejam acessados por seus proprietários, exigindo que, para recuperar o acesso, a vítima pague um resgate para o atacante.

Ele é distribuído principalmente por spam e e-mails de phishing enviados para um grande número de endereços de e-mail. Além disso, ao entrar em uma rede, o WannaCry procura outras máquinas para infectá-las, sem a necessidade de interação dos usuários.

Sabe-se que o ransomware não é um malware atual. Há relatos de que já ocorriam alguns ataques no final da década de 1980, mas na época os usuários não precisavam desembolsar nenhum dinheiro – consequentemente, não era uma técnica chamativa de ataque para os hackers. Com a criação do bitcoin (moeda virtual), os hackers visualizaram uma possibilidade de aumentar seus ganhos justamente por não existir um órgão regulamentador e, como as transações com bitcoin ainda não podem ser rastreadas, garantem o anonimato. A moeda virtual ainda valorizou após os ataques dos ransomwares WannaCry, Petya, CryptoLocker, Spora e Bad Rabbit, com o valor de um bitcoin sendo equivalente a mais de 35 mil reais.

Como não existe uma proteção 100% efetiva, é necessário conscientizar e focar os usuários. Além disso, é importante tomar algumas medidas de segurança para evitar ser vítima de um ransomware, como examinar os e-mails antes de abrir, verificando se o remetente é de origem confiável. Vale reforçar que links maliciosos também podem ser enviados por amigos que estejam infectados.

Também é indicado evitar acessar links recebidos via e-mail que não sejam confiáveis, sendo comum essas notificações usarem uma roupagem de lojas on-line, brindes, promoções ou descontos, instituições financeiras ou governamentais, produtos de cosméticos etc., com o objetivo de atrair o clique do usuário em um link malicioso. Esse método é chamado de phishing e rouba informações confidenciais.

Não abrir anexo enviado de um remetente desconhecido, não repassar nenhuma informação (senha, login, data de nascimento, CPF etc.) por e-mail, atualizar regularmente o sistema operacional e possuir um bom software de antivírus também previnem contra ameaças.

Para os próximos anos, é esperado que os ataques se tornem mais frequentes e passem a utilizar técnicas de inteligência artificial, machine learning e ataques direcionados, combinações que irão trazer muitos desafios para o mercado de segurança digital.

Gustavo Valenga é analista de Infraestrutura de TI no ICI, onde atua na equipe de suporte nível III com especialidade em Windows. 

Cidades Inteligentes: quais os principais desafios da inovação?

Por Dyonata Laitener Ramos

Desde 1950, o mundo vem apresentando um crescimento constante da população que reside em áreas urbanas, o que, segundo a ONU, tem levado à urbanização das sociedades em uma velocidade tão grande que teremos cerca de 70% da população em centros urbanos em 2050, frente a 70% da população em áreas rurais em 1950.

Esse crescimento resulta em novas necessidades da população, que não têm sido acompanhadas pela gestão pública de forma eficaz, pois são agravadas com o avanço tecnológico da nova era que apresenta cada vez melhores alternativas para evitar o desperdício ou o esforço desnecessário para a execução de atividades rotineiras.

Embora a tecnologia evolua em uma velocidade que excede as expectativas, não é na mesma velocidade que as cidades as absorvem em benefício dos cidadãos, proporcionando maior qualidade de vida.

A ineficiência da gestão de recursos nas áreas urbanas ocasiona evidentes desigualdades, baixa qualidade de vida e preocupação com o futuro dos ecossistemas urbanos que não param de crescer. Atualmente, é evidente que a geração de soluções é menor que o surgimento de novos problemas e o aumento de situações críticas em nossos principais centros urbanos, principalmente relacionadas à mobilidade, governança, economia, meio ambiente, pessoas e qualidade de vida.

Ao analisar os principais problemas dos centros urbanos, e fazendo um contraponto, podemos chegar aos seis pilares de uma Cidade Inteligente, que representa um ecossistema inovador, caracterizado pelo uso generalizado de tecnologia na gestão de seus recursos e infraestrutura.

Então, quais são as principais dificuldades que a administração pública possui em alinhar as necessidades da população com as diversas novas tecnologias que surgem a cada novo dia? Analisando o cenário brasileiro, boa parte dos impedimentos se deve à alta burocracia envolvida em um processo licitatório, que além do tempo excessivo, não está preparado para acompanhar as novas formas de negócio do século XXI, as quais estão baseadas em crowdsourcing – compartilhamento e colaboração, e impedem que a tecnologia e a inovação possam transformar a realidade da população propiciando melhor qualidade de vida.

Outra parte se deve à falta de expertise da gestão pública em integrar as diversas tecnologias, de forma a criar um ambiente focado em resolver os problemas e necessidades da população, pois uma cidade inovadora é feita principalmente de colaboração e de parcerias que tenham paixão em resolver problemas. Trabalhar esse cenário caótico e desafiador, de forma solitária, é uma tarefa muito árdua e penosa.

Além de uma revisão criteriosa na Lei 8.666/93, que institui normas para licitações e contratos para a Administração Pública, é preciso ceder mais espaço para a iniciativa privada colaborar com soluções focadas em resolver problemas da população de forma colaborativa, ou seja, por meio de parcerias público-privadas que propiciem a evolução de todos os pilares de nossas cidades, resultando em maior qualidade de vida para a população.

Dyonata Laitener Ramos é coordenador de projetos no Instituto das Cidades Inteligentes (ICI).

O suporte técnico de TI e os desafios do dia a dia

Por Evandro Luiz Vizinoni

O que seria das empresas hoje se não houvesse o “menino da TI”? Como os usuários conseguiriam resolver os problemas relacionados à Tecnologia da Informação? Perguntas como essas são normais no ambiente de trabalho, uma vez que os profissionais de TI são lembrados justamente quando acontece algum problema no equipamento ou aplicativo.

A dependência dos serviços de suporte de TI nas empresas é grande, ainda mais que a indisponibilidade de profissionais capacitados atrelada à necessidade do negócio pode impactar em resultados negativos para as organizações. Por isso, há a necessidade de a equipe de suporte de TI ser gerenciada por um responsável que coordene e oriente a entrega de um serviço efetivo e de qualidade.

As empresas buscam sempre a otimização de custos em serviços de TI, o que faz com que as exigências sejam sempre acima das estipuladas nos acordos de níveis de serviço. Muitos clientes acreditam que a equipe de TI sempre pode dar conta das necessidades, entretanto, não se atentam à importância dos processos de gerenciamento de serviços, tais como o registro das solicitações de atendimento, prioridades, prazos e infraestrutura, o que possibilita que o serviço possa ser prestado da melhor forma.

A biblioteca do ITIL (Information Technology Infrastructure Library) é um conjunto de orientações que descreve as melhores práticas para um processo integrado para o gerenciamento de TI. Os processos de atendimento devem estar alinhados com o dia a dia e a entrega das equipes, e o suporte aos serviços de TI deve estar de acordo com os requisitos do negócio. Seguindo as orientações do ITIL, as equipes prestadoras de serviços de suporte de TI devem dispor de ferramentas que justifiquem e contabilizem a quantidade de atendimentos realizados. Ou seja, os chamados técnicos devem ser registrados para que o cálculo dos indicadores de desempenho seja disponibilizado para o cliente. Afinal, como saberemos se o “menino da TI” está atendendo dentro do prazo acordado ou em quanto tempo ele resolveu o problema ou solicitação? Essas informações só são obtidas pelo registro das solicitações de atendimento.

Vivemos em um mundo em que todas as pessoas exigem prioridade, possuem demandas importantes e que devem ser resolvidas com o máximo de urgência, porém todos esquecem que o profissional de TI deve prestar contas, justificando suas atividades diárias por meio de números e resultados. Os usuários possuem a cultura de solicitar um atendimento sem efetuar o registro da solicitação na Central de Serviços ou outro sistema específico, já que a resolução de seu problema exige urgência. Entretanto, poucos entendem que a quantidade de registros efetuados são dados relevantes e que podem impactar na análise de estratégias da própria organização. Dessa forma, é possível avaliar se a falta de profissionais de TI está sendo impactante na entrega dos serviços aos clientes, uma vez que ter apenas uma infraestrutura de TI moderna, mas sem a quantidade exata de profissionais capacitados e alinhados com a estratégia do negócio, é insuficiente.

Para atender aos requisitos do negócio, a equipe de TI deve contar com um gestor, o qual é responsável pelo monitoramento e acompanhamento dos serviços prestados. O registro das solicitações de atendimentos deve ser exigido pelo gestor, apoiando a equipe e orientando os usuários no procedimento. Os processos de atendimento devem ser alinhados entre cliente e prestador de serviço, com o direcionamento das atividades e estipulação de responsabilidades, metas, prazos e serviços disponíveis. Em paralelo, a presença do RNS (Responsável pelo Nível de Serviço) é fundamental para acompanhar os atendimentos e vencimento dos prazos. Ou seja, um responsável em receber críticas, sugestões e elogios dos usuários. Toda equipe de suporte de TI deve contar com um grupo capacitado na Central de Atendimento ou Service Desk, pois várias solicitações podem ser resolvidas pela equipe, além do filtro do problema ou solicitação, o que resulta em um atendimento mais ágil e eficaz, garantindo a entrega dos serviços com qualidade e satisfação dos usuários.

Resumindo, estes são alguns dos fatores críticos de sucesso no processo de atendimento: equipe capacitada e alinhada, infraestrutura adequada, processo de atendimento e acordos (prazos e metas) definidos, e envolvimento e apoio dos usuários. A gestão de TI pelo atendimento de suporte deve ser tratada como uma área estratégica, e sua adoção orientada a processos do ITIL pode resultar em benefícios para o planejamento e execução das atividades nas organizações.

Evandro Luiz Yurk Vizinoni é coordenador de Assistência Técnica e de Suporte Técnico em TI Externo do Instituto das Cidades Inteligentes (ICI).

 

Tecnologia no comportamento estudantil

Por Antonio Marcos Jacinto

Há muitos estudos relacionados a descobrir como a mente humana funciona. Há também muitas pesquisas, descobertas e incertezas. E isso não é novidade. Desde criança o aprendizado de nossa mente é ininterrupto, sempre evoluindo, conhecendo e descobrindo. Não somente recebendo e armazenando informações do mundo que as envolve, mas também transmitindo sinais que, na maioria das vezes, são muito difíceis ou até mesmo imperceptíveis de serem decifrados.

Será que alguns desses sinais poderiam indicar comportamentos futuros que venham a influenciar na vida das crianças? Será que a tecnologia, mais especificamente, a inteligência artificial, poderia auxiliar na descoberta e interpretação de padrões de comportamento das crianças que indiquem alguma medida preventiva a ser adotada? Padrões de comportamento poderiam indicar algum tipo de distúrbio ou até mesmo síndromes que ainda não estão perceptíveis aos especialistas? O cruzamento de informações relacionadas a pessoas poderia colaborar com essa descoberta?

Se considerarmos que as crianças passam um bom tempo de suas vidas em sala de aula, muitos sinais são enviados no dia a dia, que, se forem coletados e armazenados, poderão compor uma base de conhecimento que poderá ser utilizada para mapeamento desse seu comportamento. Alguns desses já foram mapeados anteriormente, porém algumas combinações de dados, ainda não mapeados ou descobertos por especialistas, poderiam indicar a probabilidade de a criança vir a desenvolver algo que no futuro influencie sua vida negativamente. É nesse segmento que o uso da tecnologia, por meio da inteligência artificial, poderia apoiar os especialistas para diagnosticar algo que não é visível a “olho nu”, ou que a criança não dê sinais de possuir ainda.

O professor na sala de aula, notando algum tipo de comportamento fora do padrão de determinada criança, se comparada às demais, poderia coletar informações a respeito para alimentar uma base de dados. Somente a coleta desses dados na escola pode não ser suficiente, por isso o papel e participação dos pais é de fundamental importância, pois em casa a criança também pode vir a demonstrar algum comportamento anormal, então a parceria entre a família da criança e a escola teria que ser estreita.

Com as informações coletadas na escola e na casa da criança, o uso de algoritmos de inteligência artificial poderia ser aplicado para processá-las e realizar o cruzamento nos dados, de forma que comportamentos anteriores já mapeados e confirmados e outros que não foram ainda poderiam indicar a probabilidade da criança também desenvolvê-la.

De posse dessas informações, um especialista poderia ter evidências para um melhor diagnóstico de possíveis distúrbios que a criança poderá desenvolver e que não tenha demonstrado sinais ainda, indicando algum apoio profissional para melhorar sua qualidade de vida e de sua família e aprofundando em exames e monitoramentos a respeito da criança.

A inteligência das coisas é algo que chegou para ficar e, assim como suas aplicações, é de extrema importância para a evolução natural da humanidade. A inteligência em interpretação comportamental aplicada a crianças para identificação de distúrbios que talvez possam ser identificados ainda no início ou mesmo sem indícios que a criança demonstre poderiam oferecer uma qualidade de vida que talvez não venha a ter.

O aprendizado de máquina hoje é uma realidade, mas não para substituir um especialista. O ideal seria unir esforços para evoluirmos e melhorarmos a qualidade de vida que é o princípio básico que possuímos. Se houver apenas um caso proativo que venha a ajudar uma criança, já terá valido a pena essa união.

Nem todas as famílias possuem facilidade ou condições de acesso a acompanhamento médico especialista e muitas vezes seus filhos demonstram sinais que não são interpretados em seu convívio familiar. A disponibilização da tecnologia para uso da população menos privilegiada poderia amenizar grande parte dos problemas das crianças e suas famílias e, onde poderia ser melhor utilizada senão em escolas públicas?

O apoio da tecnologia para descoberta de algo que não tenha sido conhecido tem que ser valorizado e explorado, que não fique somente em laboratórios ou em setores específicos e privilegiados, mas sim disponível para toda população que não tem condição de acesso a esse tipo de ação e são as que mais padecem desse segmento. O quanto estamos longe dessa realidade? Particularmente, acredito que mais próximos de alcançá-la do que do ponto de partida.

Antonio Marcos Jacinto é coordenador de projetos no Instituto das Cidades Inteligentes (ICI). Formado em tecnologia em processamento de dados, com pós-graduação em banco de dados. Está na área de informática há mais de 20 anos, sendo também instrutor oficial Oracle Database.

O universo dos dados

Por Débora Morales

Muito se escuta falar de Big Data e Small Data, mas o que isso realmente significa ainda confunde muita gente. A definição é simples: trata-se de uma análise completa de dados. Décadas atrás, os dados não eram classificados como Small ou Big por fatores como custo, recursos e dificuldades de geração, processamento, análise e armazenamento.

Os dados eram produzidos de forma rigorosamente controlada, utilizando técnicas de amostragem que limitavam seu espaço, temporalidade e tamanho. No entanto, nos últimos anos, os avanços tecnológicos levaram à produção do que se denominou Big Data, que têm características muito diferentes dos pequenos conjuntos de dados.

Grande volume, alta velocidade, que se assemelha ao tempo real, variedade de tempo e espaço, e grande alcance, que capta toda a população dentro de um determinado domínio são algumas das especificações do Big Data. O desenvolvimento simultâneo de várias tecnologias, infraestruturas, técnicas e processos favoreceu esse novo passo.

Rapidamente, o Big Data incorporou softwares de todos os tipos de objetos, desde máquina a sistemas que se alteram de “mudos” para “inteligentes”. Incorporou, também, práticas e espaços sociais e empresariais, por meio de um conjunto diversificado de tecnologias da informação e da comunicação, em especial a internet fixa e móvel. O desenvolvimento da computação ubíqua e a capacidade de acesso a redes em muitos ambientes e em movimento incluiu a criação de novas plataformas de mídias sociais.

Em contraste, o Small Data pode ser limitado em volume e velocidade, mas tem um longo histórico de desenvolvimento em toda ciência, agências estatais, organizações não-governamentais e empresas, com metodologias e modos de análise estabelecidos em um registro de produzir respostas significativas. Estudos de Small Data podem ser mais adaptados para responder a perguntas específicas e explorar em detalhes as formas variadas em que as pessoas interagem.

Estudos de Small Data procuram a mina de ouro, trabalhando uma mineração estreita, enquanto estudos de Big Data procuram extrair pepitas por meio da mineração a céu aberto, recolhendo e peneirando enormes faixas de dados. Essas duas abordagens de mineração, estreita versus aberta, têm consequências em relação à qualidade dos dados, fidelidade e linhagem.

Devido ao tamanho limitado da amostra de Small Data, a qualidade, objetividade, consistência, veracidade e confiabilidade são de suma importância. Muito trabalho é dedicado a limitar a amostragem e o viés metodológico, bem como assegurar que os dados sejam tão rigorosos e robustos quanto possível, antes de serem analisados ou partilhados.

Em contrapartida, o Big Data não necessita dos mesmos padrões de qualidade, veracidade e linhagem, porque a natureza exaustiva do conjunto de dados elimina os vieses da amostragem e compensa mais do que quaisquer erros ou lacunas.

Dadas as preocupações e limitações de Small Data, estudos continuarão a ser um componente importante no cenário de pesquisas. Tais dados, no entanto, serão cada vez mais pressionados a serem ampliados dentro de infraestruturas de dados digitais, para que sejam preservados para gerações futuras, tornem-se acessíveis para reutilização e combinações com outros dados.

As práticas da vida cotidiana e os locais em que vivemos agora são aumentados, monitorados e regulados por densas aglomerações de infraestrutura e tecnologia de dados. Dentro desse sistema, grande parte da geração de dados é automatizada por meio de câmeras controladas algoritmicamente, sensores, scanners, dispositivos digitais como telefones inteligentes, ou são voluntários pelos usuários de mídias sociais ou iniciativas de crowdsourcing.

Coletivamente, esses sistemas produzem conjuntos de dados maciços, exaustivos, dinâmicos, indexados, inter-relacionados, flexíveis e escaláveis. Apesar de algumas limitações, o Big Data e o Small Data se esforçam para serem cada vez mais abrangentes e proporcionarem uma visão dinâmica e refinada em um novo território que ainda está sendo explorado.

Débora Morales é estatística no Instituto das Cidades Inteligentes (ICI).

Desafios na adoção de metodologias ágeis de desenvolvimento de software

Por Felipe Massardo

A adoção de metodologias ágeis de desenvolvimento de software é, habitualmente, uma unanimidade “teórica” em grande parte das empresas de TI, inclusive nas mais tradicionais. Digo “teórica”, pois conceitualmente falando, o Agile é muito bem aceito, é um paradigma de fácil convencimento e de fácil “vendagem” para diretorias e altas gerências. Porém, ocorre que, na prática, a implantação destas metodologias sofre bastante resistência, em todos os níveis das organizações, da cúpula diretiva à equipe técnica. Isto ocorre, pois, como toda mudança, alterar a forma de desenvolver software requer a saída da zona de conforto, trocar o certo pelo (ainda) duvidoso, onde haverá muitas dificuldades, riscos, erros e acertos até que, por fim, os resultados e os ganhos reais comecem a aparecer. Neste processo, o que é certo é que, sem total apoio e comprometimento do patrocinador da mudança (diretoria), nas primeiras dificuldades o processo tende a ser abandonado, voltando-se imediatamente ao modus operandi da empresa.

Mudança cultural

Sair da zona de conforto envolve algo bem mais profundo do que mudanças de atitudes. A grande mudança necessária é na cultura organizacional. Não basta apenas executar diferente, é necessário pensar diferente, não apenas na fase de execução dos projetos, mas desde a concepção das primeiras ideias acerca do produto até a entrega final.

Principais vantagens

Metodologias ágeis trazem uma série de vantagens em relação às tradicionais, porém duas delas merecem destaque especial. A primeira é a entrega constante e regular de software funcional. O cliente não precisa aguardar a finalização do projeto para testá-lo e, principalmente, validá-lo. Isso nos leva para a segunda vantagem, talvez a mais importante: Rápida resposta a mudanças. No mundo real, raramente um cliente possui a perspectiva detalhada do que exatamente ele deseja em seu software. Em geral, o que existe é uma ideia, muitas vezes vaga, da necessidade do cliente. Neste nível de abstração as mudanças são frequentes e perfeitamente normais, porém há uma tendência de que as incertezas sejam reduzidas conforme avança o desenvolvimento e o cliente vislumbra cada vez mais o resultado final.

Uma forma de reduzir as mudanças de escopo, independentemente da metodologia, é a troca de foco. Ao invés de se tentar detalhar a ideia (vaga) que o cliente possui, exigindo “certezas” que o mesmo não pode fornecer, torna-se mais eficiente entender a fundo o problema que se deseja resolver e então propor um software para este propósito.

Ágil X PMBOK

Metodologias ágeis, via de regra, seguem o Manifesto Ágil, que consiste em princípios fundamentais para o desenvolvimento ágil de software. Isto não significa que a adoção de uma metodologia ágil não possa ser combinada com outras metodologias de gerenciamento de projetos, como aquelas que são norteadas pelo PMBOK, por exemplo. Para exemplificar, o princípio ágil “Software funcional mais do que documentação extensa” não prega que toda a documentação deva ser abolida. É muito difícil gerenciar projetos sem um mínimo de documentação, sem aceites nem comprometimentos formais do que fora acordado. Uma ausência total de documentos pode gerar, por exemplo, projetos infinitos, nos quais o cliente sempre demanda novas features e não há como provar que as mesmas nunca fizeram parte do escopo. Em resumo, nada impede que a gestão do projeto como um todo seja feita utilizando-se os processos do PMBOK (apenas os necessários, de forma enxuta) e que a execução seja regida por uma metodologia ágil, complementando uma a outra.

Cliente-Parceiro

Uma grande mudança ao se adotar uma metodologia ágil, principalmente em relação ao desenvolvimento tradicional (em cascata), encontra-se na mudança de comportamento por parte do cliente. Este, que antes participava como um mero expectador do processo, atuando apenas no início (fornecendo a ideia) e no final do projeto (validando a entrega), passa a exercer um papel que vai além do simples cliente, tornando-se um “cliente-parceiro”. Esta necessidade é uma característica inerente do processo de desenvolvimento ágil de software, haja vista que, por exemplo, as entregas parciais só fazem sentido se forem validadas pelo cliente. Talvez ele tenha dificuldades em entender a razão de precisar gastar seu tempo, além do dinheiro, para adquirir um software. Porém, quanto maior seu envolvimento no processo, menor a chance de o produto, depois de pronto, não atender às suas expectativas. É preciso deixar claro que, quanto mais tarde ocorrerem as solicitações de mudanças (depois de pronto, no pior caso), maior será o custo (retrabalho) e o atraso.

O Time Ágil

Apesar de as vantagens do desenvolvimento ágil de software serem evidentes, é preciso ressaltar que o processo só funciona, na prática, se a equipe (time ágil) for adequada para trabalhar desta forma. Em outras palavras, metodologias ágeis não funcionam em todas as equipes. O requisito básico é que a mesma seja autogerenciável. O autogerenciamento é um conceito amplo, mas, de forma simplificada, uma equipe autogerenciável é aquela que possui a capacidade de organizar sua forma de trabalho da maneira mais eficiente possível, de maneira autônoma. É como se a equipe fosse uma microempresa dentro da organização, que possui demandas e entrega resultados, sem a necessidade de alguém lhe dizer como deve organizar seu trabalho, como deve ocorrer a comunicação interna, como devem ser distribuídas as tarefas, enfim, sem nenhuma necessidade de microgerenciamento. Porém, todos os membros da equipe, sem exceção, precisam atender a um perfil específico para fazer parte de uma equipe autogerenciável, caso contrário, desorganização e conflitos surgirão e poderão chegar ao ponto de comprometer a qualidade, os prazos e a equipe como um todo. Este perfil específico demanda, além de conhecimento técnico, alta capacidade de trabalho em equipe, organização e comprometimento. Infelizmente, nem todos possuem este perfil e, portanto, não devem fazer parte dos times ágeis enquanto não o possuírem.

A implantação de uma metodologia ágil é um processo bastante complexo, especialmente em uma empresa tradicional, principalmente por envolver abandono da zona de conforto, muitas vezes sedimentada ao longo de muitos anos, além de profundas mudanças culturais e de processos. Desta forma, todo o processo deve ser realizado de maneira gradativa, sendo o menos taxativo possível, envolvendo muito diálogo e ajustes constantes, especialmente nos primeiros projetos. É preciso ter a humildade de reconhecer que é muito difícil acertar de primeira, além de coragem e perseverança para não desistir diante das primeiras barreiras, especialmente as resistências internas. Infelizmente, nenhuma melhoria significativa é obtida sem investimentos e uma boa dose de risco, porém, os ganhos certamente fazem o esforço valer a pena.

Felipe Massardo é coordenador de projetos no Instituto das Cidades Inteligentes (ICI).