UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com Universidade Federal de Santa Maria Wed, 04 Mar 2026 21:23:08 +0000 pt-BR hourly 1 http://wordpress.org/?v=6.9 /app/themes/ufsm/images/icons/favicon.ico UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com 32 32 UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2026/01/16/influencia-dos-algoritmos-de-recomendacao-no-comportamento-dos-usuarios Fri, 16 Jan 2026 19:35:11 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3669

Os algoritmos de recomendação passaram a atuar como um mecanismo automatizado de seleção de conteúdo no cotidiano digital. Em vez de vermos conteúdos apenas na ordem em que foram publicados, muitas plataformas organizam o feed com base no que tende a prender nossa atenção. Esse detalhe muda a experiência de navegação, fazendo com que o usuário não escolha apenas entre opções prontas, mas passe a interagir com um sistema que aprende seus padrões e apresenta conteúdos semelhantes aos que já geraram engajamento.

Uma consequência direta é a forma como esses sistemas moldam hábitos de consumo de informação. Em redes sociais, por exemplo, parte do que a pessoa lê depende dos amigos e páginas que segue, mas também do filtro algorítmico aplicado depois disso. No estudo “Exposure to ideologically diverse news and opinion on Facebook”, os autores analisaram dados de milhões de usuários e observaram que tanto a rede de amizades (homofilia) quanto o ranqueamento do feed reduzem a exposição a conteúdos ideologicamente divergentes, embora por mecanismos diferentes. Em paralelo, ao investigar históricos de navegação, o trabalho “Filter Bubbles, Echo Chambers, and Online News Consumption” encontrou evidências de que redes sociais e mecanismos de busca podem estar associados a uma maior segregação ideológica no consumo de notícias, contribuindo para ambientes em que visões diferentes circulam menos entre grupos.

Esse cenário se conecta ao debate sobre “bolhas” e polarização, mas com um cuidado importante: ver o outro lado não garante diálogo e, em alguns casos, pode produzir o efeito oposto. No experimento de campo realizado no X (antigo Twitter), intitulado “Exposure to opposing views on social media can increase political polarization”, participantes foram incentivados a seguir bots que retuitavam mensagens associadas a posições políticas divergentes das suas, e os autores encontraram evidências de aumento da polarização em parte dos usuários, sugerindo que a simples exposição a visões opostas pode reforçar identidades políticas e desencadear reações defensivas. Além disso, há evidências de que a ordenação algorítmica do conteúdo não é neutra, podendo influenciar a visibilidade e a circulação de conteúdos políticos. Ao analisar a diferença entre feeds ranqueados, o estudo “Algorithmic amplification of politics on Twitter” mostra que a ordenação algorítmica pode influenciar a circulação de conteúdos políticos, afetando o ambiente informacional em que o debate ocorre.

Um ponto que ajuda a entender por que isso se sustenta ao longo do tempo é o efeito de retroalimentação. Conforme o algoritmo aprende com o que o usuário consome, ele tende a oferecer mais do mesmo, e isso influencia as próximas escolhas do próprio usuário. O resultado pode ser um caminho cada vez mais estreito de conteúdos e preferências, porque o sistema “educa” o comportamento que ele mesmo irá medir depois. Esse tipo de ciclo é discutido no estudo “How Algorithmic Confounding in Recommendation Systems Increases Homogeneity and Decreases Utility”, que mostra como recomendações podem aumentar a homogeneidade do que é consumido e produzir vieses na própria avaliação do sistema.

Além do que aparece no feed, a forma como o conteúdo é apresentado também pesa. Na revisão “Addictive Features of Social Media/Messenger Platforms and Freemium Games against the Background of Psychological and Economic Theories”, os autores descrevem como elementos de design como rolagem infinita, notificações e mecanismos de recompensa intermitente podem prolongar o tempo de uso e reforçar o hábito de checar o aplicativo repetidamente. Nesse contexto, a influência dos algoritmos vai além de recomendar “o que você gosta”. Ela contribui para a criação de rotinas de atenção.

Esse conjunto de dinâmicas aponta para um funcionamento dos sistemas de recomendação que ultrapassa a personalização individual e se aproxima de um processo coletivo de coordenação informacional. A ideia de hive mind, presente na série Stranger Things, oferece uma analogia pertinente: indivíduos distintos, embora separados, respondem a estímulos semelhantes e passam a agir de forma sincronizada. De maneira análoga, a distribuição algorítmica de conteúdos pode levar grandes grupos de usuários a compartilhar repertórios informacionais parecidos, reforçando padrões de atenção, interpretação e comportamento. Nesse cenário, a influência dos algoritmos se manifesta não apenas no nível individual, mas na própria configuração do espaço público digital.

Autor: Renan Bordignon Poy

REFERÊNCIAS:

BAKSHY, E.; MESSING, S.; ADAMIC, L. A. Exposure to ideologically diverse newsand opinion on Facebook. Science, v. 348, n. 6239, p. 1130–1132, 2015.

FLAXMAN, S.; GOEL, S.; RAO, J. M. Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly, v. 80, S1, p. 298–320, 2016.

BAIL, C. A. et al. Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences (PNAS), v. 115, n. 37, p. 9216–9221, 2018.

HUSZÁR, F. et al. Algorithmic amplification of politics on Twitter. Proceedings of the National Academy of Sciences (PNAS), v. 119, n. 1, e2025334119, 2022.

CHANEY, A. J. B.; STEWART, B. M.; ENGELHARDT, B. E. How algorithmic confounding in recommendation systems increases homogeneity and decreases utility. In: Proceedings of the 12th ACM Conference on Recommender Systems (RecSys ’18). ACM, 2018.

MONTAG, C.; LACHMANN, B.; HERRLICH, M.; ZWEIG, K. Addictive features of social media/messenger platforms and freemium games against the background of psychological and economic theories. International Journal of Environmental Research and Public Health, v. 16, n. 14, 2019.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/2026/01/05/comunidade-academica-e-consultada-para-guia-de-uso-da-inteligencia-artificial Mon, 05 Jan 2026 13:27:23 +0000 http://www.55bet-pro.com/?p=71743

Um grupo de trabalho, composto por técnico-administrativos e docentes, está elaborando o Guia de Uso Ético e Responsável da Inteligência Artificial na UFSM. 

Com o objetivo de ouvir a comunidade acadêmica e compreender suas necessidades, expectativas e anseios relacionados à temática, foi elaborado um questionário. As contribuições coletadas subsidiarão a construção do guia, de modo que o documento contemple, de forma representativa, as demandas e perspectivas da comunidade universitária.

O questionário permanecerá disponível até 28 de fevereiro pelo link.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/projetos/extensao/guriastec/2025/12/09/guriastec-realiza-minicurso-de-ia-para-professores-do-ensino-fundamental-e-medio Tue, 09 Dec 2025 12:16:17 +0000 http://www.55bet-pro.com/projetos/extensao/guriastec/?p=325 Na última semana, 01, o programa GuriasTec promoveu um minicurso sobre ferramentas de Inteligência Artificial (IA) voltado às professoras das escolas parceiras do projeto. A atividade foi mediada pela estudante do curso de Engenharia de Telecomunicações da UFSM e bolsista do GuriasTec, Maria Eduarda Winch Desconci.

Professoras das escolas parceiras do projeto participaram da atividade

O encontro iniciou com uma apresentação sobre três ferramentas gratuitas de IA: ChatGPT, Gemini e DeepSeek. Em seguida, foram propostas atividades práticas utilizando cada uma delas, destacando seus principais pontos fortes e limitações.

A ação foi supervisionada pela professora Candice Müller, do Departamento de Eletrônica e Computação, e surgiu a partir de uma demanda das docentes participantes do projeto. Ao final, as professoras relataram que não conheciam a ferramenta DeepSeek e observaram que suas respostas se mostraram mais assertivas quando comparadas às do ChatGPT, que já estavam familiarizadas. O minicurso foi realizado de forma remota. 

Expediente:

Notícia: Luciana Mendes

Imagens: Candice Müller

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2025/12/01/engenharia-de-software-e-inteligencia-artificial-o-papel-do-gestor-na-era-digital Mon, 01 Dec 2025 12:03:26 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3664

Quando alguém pede um sistema novo, quase nunca começa falando em códigos, servidores ou bancos de dados. Um dono de restaurante diz que precisa “parar de perder pedidos do delivery”. Uma escola quer “controlar melhor as notas e faltas dos alunos”. Uma clínica deseja “marcar consultas sem confusão de horários”. A engenharia de software entra justamente nesse cenário: é o conjunto de princípios, métodos e ferramentas usados para pegar esses pedidos genéricos e transformá-los em sistemas reais, que funcionam todos os dias. Na prática, isso significa detalhar fluxos de tela, definir regras de negócio, planejar integrações com outros sistemas, decidir como serão feitos testes e prever o que acontece quando algo dá errado. Em vez de ficar apenas na ideia “quero um app”, a engenharia de software organiza tudo em requisitos, tarefas e entregas que a equipe técnica consegue implementar.

Nesse processo, o gestor de software ocupa uma posição central. Ele está o tempo todo entre dois mundos: de um lado, o cliente, que fala em prazos, orçamento e problemas do negócio; de outro, a equipe técnica, que fala em arquitetura, APIs, performance e segurança. Em uma reunião com o cliente, por exemplo, o gestor precisa traduzir “quero um sistema rápido e fácil de usar” em algo verificável, como “tempo médio de resposta abaixo de dois segundos nas principais telas” ou “fluxo de compra em até três cliques”. Em seguida, leva isso para a equipe como metas técnicas, discute opções de implementação e, se necessário, volta ao cliente com alternativas: uma versão inicial mais simples, uma versão completa em prazo maior ou um pacote de funcionalidades dividido em fases.

Alinhar expectativas é justamente amarrar esses dois lados de forma clara. Imagine um cliente que diz: “Quero um aplicativo igual ao do banco X, mas pronto em três meses e com metade do orçamento”. Sem uma boa engenharia de software, esse pedido vira frustração na certa. Com um gestor atento, o processo é diferente: primeiro, ele pergunta o que exatamente o cliente admira no app do banco X (é a segurança? a facilidade de uso? o chat com atendente?). Depois, traduz isso em prioridades, mostra o custo de cada bloco de funcionalidade e propõe um escopo realista para a primeira versão. O cliente sai sabendo o que será entregue, o que ficará para futuras evoluções e quais trade-offs foram escolhidos. A equipe, por sua vez, recebe um plano concreto, com tarefas definidas e critérios de aceite objetivos.

Antes da era da inteligência artificial, boa parte desse trabalho de coordenação dependia de esforço manual. Para organizar um único projeto, o gestor passava horas alimentando planilhas, cruzando e-mails, copiando trechos de atas de reunião e atualizando ferramentas de gestão. Se o cliente mudava uma prioridade, era preciso ajustar cronograma, redistribuir tarefas, avisar todo mundo e revisar documentos. Quando alguém novo entrava na equipe, levava dias para entender o histórico do projeto, porque as informações estavam espalhadas em várias conversas e arquivos. Em muitos casos, o gestor acabava preso em atividades operacionais, com pouco tempo para análises mais profundas ou para acompanhar de perto o impacto do software no negócio.

Com a inteligência artificial aplicada à gestão, parte desses gargalos começou a ser reduzida. Hoje, ferramentas de gestão de projetos conseguem sugerir automaticamente quais tarefas devem ser priorizadas em um sprint, levando em conta prazo, dependências e capacidade da equipe. Em um projeto de aplicativo de entregas, por exemplo, o sistema pode indicar que é mais seguro finalizar primeiro o fluxo de cadastro de entregadores e o módulo de pagamentos, porque são áreas críticas para o funcionamento do negócio. O gestor deixa de refazer o planejamento do zero a cada mudança e passa a revisar recomendações, ajustando o que fizer sentido para o contexto.

A IA também ajuda a manter o contexto de clientes sempre à mão. Plataformas de CRM e atendimento integradas a modelos de linguagem conseguem resumir, em poucos parágrafos, meses de interações: reuniões realizadas, reclamações recorrentes, sugestões de melhoria, decisões de escopo. Antes de conversar com o responsável por uma rede de academias, por exemplo, o gestor pode pedir um resumo do histórico daquele cliente e receber uma síntese clara: quais funcionalidades já foram entregues, quais problemas surgiram, que pedidos ficaram pendentes. Em vez de procurar manualmente em e-mails e documentos, ele entra na conversa preparado, com um roteiro mais objetivo e com respostas mais rápidas.

No relacionamento com a equipe técnica, a IA também se torna aliada. Ferramentas de colaboração conseguem ler longas discussões em um ticket de suporte e gerar um resumo dos principais pontos, o que facilita a vida de quem assume o caso no meio do caminho. Assistentes de reunião gravam a conversa, geram uma transcrição e destacam automaticamente decisões tomadas e próximos passos, como “criar protótipo da nova tela até sexta” ou “valiar impacto da mudança na API de pagamentos”. A partir disso, o gestor consegue transformar rapidamente esses itens em tarefas, atribuir responsáveis e ajustar prazos, sem depender de anotações soltas ou da memória de quem participou.

Outra frente importante é o uso da IA para monitorar riscos e evitar retrabalho. Com base no histórico de projetos da empresa, modelos preditivos podem alertar quando um conjunto de tarefas está grande demais para caber em um ciclo de entrega, quando uma equipe está sobrecarregada ou quando um aumento repentino no número de erros em produção indica problemas de qualidade. Em um sistema de reservas de hotel, por exemplo, a IA pode detectar que as falhas estão concentradas em um módulo recém-alterado e sugerir que o gestor priorize testes adicionais ali antes de liberar novas funcionalidades. Em vez de descobrir o problema apenas depois que clientes começam a reclamar, a equipe age preventivamente.

Nada disso significa que a IA substitui o papel do gestor ou da engenharia de software. As ferramentas ajudam a organizar tarefas, resumir conversas e apontar padrões que seriam difíceis de enxergar manualmente, mas elas não definem sozinhas qual é o objetivo do projeto, até onde o orçamento pode ir ou que riscos a empresa está disposta a assumir. Quem continua fazendo essas escolhas é o gestor, com base em diálogo com o cliente, com a equipe e com a direção do negócio. A diferença é que, com apoio da IA, ele toma essas decisões com mais informação, menos improviso e mais tempo para pensar estrategicamente.

Pesquisas em gestão de projetos e engenharia de software têm mostrado justamente esse caráter complementar da IA. Estudos recentes apontam que ferramentas inteligentes são eficazes para automatizar rotinas, apoiar análises de risco e sugerir alocação de recursos, enquanto o julgamento humano permanece essencial na definição de prioridades e na mediação entre interesses técnicos e de negócio. Em paralelo, trabalhos acadêmicos exploram o uso de modelos de linguagem para apoiar atividades como captura de requisitos, geração de casos de teste e análise de incidentes em produção, sempre com o profissional no centro do processo. Para quem se interessa por tecnologia e gestão, enxergar essa convergência é um passo importante: a engenharia de software continua sendo a base que dá forma aos projetos, e a inteligência artificial surge como uma camada adicional que amplia a capacidade do gestor de organizar tarefas, manter o contexto de clientes e conduzir conversas difíceis com mais clareza e segurança.

Autor: Leonardo Silva da Veiga Marinho Barbosa 

Referências

  • PRESSMAN, R. S.; MAXIM, B. R. Engenharia de Software: uma abordagem profissional. 8. ed. McGraw-Hill, 2016.
  • SOMMERVILLE, I. Engenharia de Software. 10. ed. Pearson, 2016.
  • PMI – Project Management Institute. Pulse of the Profession: AI Innovators. PMI, 2023.
  • NENNI, M. E. et al. How Artificial Intelligence Will Transform Project Management. Journal of Management Control, 2024.
  • VERGARA, D. et al. Trends and Applications of Artificial Intelligence in Project Management. Electronics, 2025.
  • LI, X. et al. AI Tools for Predictive Analytics, Risk Assessment and Decision-Making in Project Management. International Journal of Academic Management Research, 2024.

 

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/2025/11/07/ufsm-fw-e-iffar-fw-promovem-xv-eati-inteligencia-artificial-como-eixo Fri, 07 Nov 2025 17:23:30 +0000 http://www.55bet-pro.com/?p=71308 [caption id="attachment_71309" align="alignleft" width="521"]Foto colorida horizontal de palestra. Bem ao fundo, o palestrante. À frente dele um grupo expressivo de pesssoas sentadas. Palestra com Cleber Zanchettin sobre IA para Negócios[/caption]

A XV edição do Encontro Anual de Tecnologia da Informação (EATI) reuniu estudantes, pesquisadores(as) e profissionais no Salão Social do Instituto Federal Farroupilha 55BET Pro Frederico Westphalen (IFFar/FW), nos laboratórios do 55BET Pro da Universidade Federal de Santa Maria em Frederico Westphalen (UFSM/FW) e no Salão Nobre da Associação Empresarial do município (AEFW). A iniciativa, realizada entre 3 e 7 de novembro, é promovida conjuntamente pela UFSM/FW e pelo IFFar/FW e, nesta edição, teve como tema central a Inteligência Artificial (IA).

  Ao longo da programação, o EATI contou com palestras e minicursos, proporcionando atualização de conhecimentos e troca de experiências entre os(as) participantes. O evento também buscou fortalecer os vínculos entre estudantes, comunidade e mercado de trabalho, estimulando o diálogo sobre o papel da tecnologia no desenvolvimento regional.

Palestras 

Entre os palestrantes convidados, esteve Cleber Zanchettin, doutor em Ciência da Computação pela Universidade Federal de Pernambuco (CIn/UFPE) e referência nacional na área.  Cleber abordou o tema “IA para Negócios”, além de ministrar as palestras “IA para Todos: Descubra, Use e Entenda” e “Aumento de Produtividade no Desenvolvimento de Softwares utilizando IA”, destacando como as ferramentas de IA podem ser aplicadas no comércio, na indústria e na tecnologia, tornando as rotinas empresariais e profissionais mais eficientes e estratégicas.

A programação contou ainda com Lucas Machado da Palma, gerente de projetos no Laboratório de Segurança em Computação (LabSEC) da Universidade Federal de Santa Catarina (UFSC), que apresentou a palestra “Documentos Eletrônicos na Era das Credenciais Verificáveis”, com reflexões fundamentais sobre segurança, autenticidade e confiabilidade na era dos documentos eletrônicos. 

Outro destaque foi a palestra “Desvendando a IA: Estratégias para Inovar’”, ministrada por Douglas Pereira, pós-graduado em MBA em Gestão de Pessoas e em Gestão pela Fundação Getúlio Vargas (FGV), que trouxe uma visão de gestão e inovação, buscando mostrar como pensar estratégias para inovar com o uso da IA nas organizações. O público também acompanhou o relato de Gabriel Ferreira Umbelino, engenheiro de software sênior na Upsiide, que compartilhou sua experiência internacional na palestra “Trabalhando para o Exterior”, abordando desafios, oportunidades e competências exigidas no mercado global de tecnologia.

Sobre a programação do EATI

 De acordo com André Fiorin, docente do IFFar/FW e um dos organizadores do evento, a escolha da temática surgiu a partir de um debate entre os alunos dos diretórios acadêmicos dos cursos envolvidos, considerando a relevância e o crescimento do debate sobre IA nos últimos anos e a consolidação das credenciais digitais verificáveis, duas áreas que estão transformando tanto o mercado quanto a forma como as pessoas se relacionam com a informação e com a tecnologia. “A IA deixou de ser um tema do futuro para se tornar uma ferramenta do presente, nas empresas, na educação, no setor público, entre outros. O XV EATI veio para discutir esses temas de forma prática, aproximando o conhecimento técnico da realidade das organizações e da vida das pessoas. As credenciais verificáveis, por sua vez, interessam tanto à área acadêmica quanto à sociedade, pois impactam diretamente a forma como validamos diplomas, certificados e identidades digitais”, destacou o organizador.

O evento aproximou o ambiente acadêmico das tendências reais do mercado e reforçou o seu papel como espaço de inovação, integração e desenvolvimento regional, reafirmando o compromisso da UFSM/FW e do IFFar/FW com a formação de profissionais qualificados e o desenvolvimento científico e tecnológico da região do Alto Médio Uruguai.



Texto: Assessoria de Comunicação da UFSM/FW

Fotos: Aline Eduarda Iora, bolsista da Assessoria de Comunicação da UFSM/FW

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2025/10/23/inteligencia-artificial-uma-questao-etica Thu, 23 Oct 2025 13:08:31 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3660

A ascensão da inteligência artificial generativa, capaz de criar textos, sons e imagens com uma capacidade quase humana, marca uma nova fronteira tecnológica. Ferramentas como o ChatGPT e o Midjourney encantam pela sua capacidade de escrever, desenhar, programar, entre outras muitas atividades. No entanto, por trás dessa fachada de criatividade, existe uma verdade fundamental: a IA não “pensa” nem “cria” a partir do nada. Ela é uma máquina de reconhecimento de padrões, um intérprete gigantesco de dados que aprende ao receber grandes volumes de informação produzida por humanos. E é exatamente nessa fonte que reside seu maior desafio ético, pois ao aprender com o nosso mundo, a IA também aprende, reflete e automatiza os preconceitos e as desigualdades neles contidos.

A prova mais visível desse fenômeno está nos populares geradores de imagem. Em uma investigação detalhada de 2023, a agência de notícias Bloomberg analisou o modelo Stable Diffusion e revelou um viés sistêmico alarmante. Conforme documentado no artigo “Humans Are Biased. Generative AI Is Even Worse”, a pesquisa constatou que comandos como “pessoa de baixa renda” geravam imagens de indivíduos com tons de pele mais escuros, enquanto “pessoa bem-sucedida” produzia predominantemente homens brancos. Profissões de prestígio, como “juiz” ou "CEO", eram principalmente associadas a homens, e as de cuidado a mulheres. Essa “imaginação artificial” não é criativa, é um eco dos estereótipos extraídos de bilhões de imagens da internet, que acaba por apagar a diversidade do mundo real e apresentar uma caricatura preconceituosa.

Quando esse viés migra de imagens ilustrativas para sistemas de aplicação da lei, as consequências tornam-se ainda mais preocupantes. Em fevereiro de 2023, Porcha Woodruff, uma mulher negra de Detroit, foi presa injustamente em frente aos seus filhos, acusada de roubo de carro. Ela se tornou a sexta pessoa a relatar uma prisão indevida baseada em uma correspondência facial algorítmica falha nos EUA e todas elas eram negras. O caso de Randal Reid, um homem negro da Geórgia erroneamente preso em novembro de 2022 por um roubo que ocorreu em outro estado, segue o mesmo padrão trágico. Esses incidentes não são mais hipóteses teóricas, são a prova de que tecnologias enviesadas, treinadas com bancos de dados que sub-representam certos grupos étnicos e sociais, estão sendo usadas para privar cidadãos de sua liberdade, transformando o código em uma sentença.

O grande perigo é que a IA parece ser totalmente neutra e imparcial. Enquanto podemos identificar e questionar o preconceito de uma pessoa, o preconceito do algoritmo fica escondido por trás de números e cálculos- o que o torna mais perigoso e disfarçado. Por isso, uma decisão injusta feita por um computador muitas vezes é aceita como correta e se torna mais difícil de ser contestada. Isso cria um efeito de bola de neve: o sistema toma uma decisão preconceituosa (como vigiar mais um bairro de minorias), o que gera mais dados que “provam” que a decisão estava certa (mais prisões acontecem ali). Esses novos dados, por sua vez, alimentam o sistema, que reforça ainda mais seu preconceito inicial. Desse modo, a desigualdade não só se repete, como se torna mais forte e passa a ser justificada por uma lógica que se alimenta de si mesma, tudo isso em uma velocidade e escala que nenhuma pessoa conseguiria atingir sozinha. 

Esses exemplos expõem a urgência de uma discussão profunda sobre o treinamento ético da inteligência artificial. O problema não está em uma falha de programação, mas em uma falha de concepção social refletida nos dados. Se um algoritmo é alimentado com um histórico de decisões humanas que, sutil ou abertamente, favoreceram um grupo em detrimento de outro, ele aprenderá essa discriminação como a norma a ser seguida. A tecnologia, nesse caso, age como um amplificador de injustiças estruturais, conferindo uma aura de objetividade e neutralidade a decisões que são, na verdade, profundamente enviesadas. A máquina não é racista ou sexista por si só, ela se torna um agente de preconceito ao aprender com uma sociedade que ainda luta contra esses mesmos demônios.

Para solucionar esse problema, são necessárias ações em várias frentes. A melhoria da tecnologia, por si só, é insuficiente; é preciso cuidar dos dados utilizados e das regras de controle. Tal abordagem significa selecionar dados com mais cuidado para assegurar diversidade e justiça, criar sistemas que permitam fiscalização contra preconceitos e estabelecer leis que obriguem as empresas à transparência e à responsabilidade. A constituição de equipes com profissionais de diversas áreas como tecnologia, sociologia e direitos humanos é crucial para prever e reduzir os problemas. Em resumo, a inteligência artificial reflete a sociedade. Se essa imagem é preconceituosa, a falha está na fonte, não na ferramenta. A correção dos defeitos sociais é uma tarefa urgente, para que não se tornem regras permanentes nos códigos que guiarão o futuro.

 

Autor(a): Leonardo Winch Dallanora

Referências:

Grávida é presa por engano: quem é a mulher acusada de roubo por erro em tecnologia de reconhecimento facial nos EUA. O Globo. Disponível em: http://oglobo.globo.com/mundo/epoca/noticia/2023/08/07/gravida-e-presa-por-engano-quem-e-a-mulher-acusada-de-roubo-por-erro-em-tecnologia-de-reconhecimento-facial-nos-eua.ghtml. Acesso em: 15 out. 2025.

NICOLETTI, Leonardo; BASS, Dina. Humans Are Biased. Generative AI Is Even Worse. Bloomberg. Disponível em: http://www.bloomberg.com/graphics/2023-generative-ai-bias. Acesso em: 15 out. 2025.

PEREIRA, Ivan. In lawsuit, man claims he was falsely arrested due to misuse of facial recognition. ABC News. Disponível em: http://abcnews.go.com/US/lawsuit-man-claims-falsely-arrested-misuse-facial-recognition/story?id=103687845. Acesso em: 15 out. 2025.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/2025/09/04/como-o-uso-de-inteligencias-artificiais-consome-agua Thu, 04 Sep 2025 15:00:06 +0000 http://www.55bet-pro.com/?p=70398

O dicionário de Oxford define a palavra “tecnologia” da seguinte forma: “conhecimento, ferramentas e processos utilizados para resolver problemas e melhorar a vida das pessoas, por meio da aplicação do conhecimento científico em atividades práticas”. Porém, o que acontece quando o uso dessas ferramentas gera consequências ao meio ambiente e, com isso, afeta a humanidade?

Esse questionamento evidenciou um debate inesperado: o aumento de consumo de água doce devido ao uso de inteligências artificiais (IA). Por mais inofensivas que pareçam, as respostas, as imagens ou os vídeos gerados automaticamente por ferramentas como Chat GPT, Google Gemini ou Deep Seek, movem uma série de mecanismos que exigem o uso de energia e, por consequência, água.

Tudo isso acontece nos “data centers”, em português: centros de processamento de dados (CPD), locais, muitas vezes grandes pavilhões, onde os sistemas computacionais de uma empresa, organização ou instituição de ensino, armazenam informações. Ao contrário do que muitos pensam, as inteligências artificiais não “vivem” em dispositivos como celulares e computadores, mas sim em um data center, o “cérebro” responsável por gerar o que pedimos às IAs.

O egresso do curso de Sistemas de Informação da Universidade Federal de Santa Maria (UFSM) e especialista em Gestão de Tecnologia de Informação (TI), Marcelo Henrique Casali, apontou que os data centers são estruturas essenciais na era digital e são considerados uma base invisível que sustenta quase tudo que fazemos no mundo virtual. “Eles funcionam como grandes centrais de processamento e armazenamento de dados, garantindo que serviços digitais como redes sociais, e-mails, sistemas corporativos, streaming e agora também as inteligências artificiais estejam sempre disponíveis e operando com eficiência”, explica.

Foto em preto e branco horizontal. Sala com grandes painéis de cabos e circuitos do Integrador Numérico Eletrônico e Computador ocupando toda a parede. Dois profissionais trabalham, um homem à esquerda e uma mulher à direita, ambos próximos às máquinas.
Equipe de programadores operando o Integrador Numérico Eletrônico e Computador, o Eniac (Fonte: ARL Technical Library / U.S. Army/Reprodução)
Foto colorida horizontal. Interior de data center com várias fileiras de servidores prateados alinhados. Cabos pretos e azuis estão organizados nas estruturas.
Imagem interna do Server Blade, data center da Microsoft (Fonte: Microsoft/Reprodução)
Foto colorida horizontal. Vista aérea de pavilhões brancos de data center alinhados lado a lado, cercados por ruas asfaltadas e carros estacionados. Mais ao fundo, uma área verde extensa com árvores e, à direita, uma torre de água branca.
Visão externa dos pavilhões de data center da Microsoft (Fonte: Microsoft/Reprodução)

Data centers e o gasto de água

O primeiro data center surgiu ainda em 1945 - ao fim da Segunda Guerra Mundial - com a criação do Mainframe, uma instalação,  na  Universidade da Pensilvânia nos Estados Unidos, para armazenar o Integrador Numérico Eletrônico e Computador (Eniac), o primeiro sistema computacional eletrônico e digital. Na época, utilizado para fins militares, o sistema inteiro pesava 27 toneladas e ocupava 27 metros quadrados de espaço.

Com o tempo, os limites da engenharia foram desafiados até que empresas como Google, Apple, Microsoft e Meta, as Big Techs, tornaram-se proprietárias dos maiores centros existentes no mundo e os grandes responsáveis pelo consumo exagerado de energia e água no setor da tecnologia, mesmo antes da fama chegar às IAs. 

Para exemplificar, os data centers da Google possuem, hoje em dia, aproximadamente, um padrão de 100 mil metros quadrados de extensão. Nessa linha, apenas em 2021, conforme pesquisa feita pela Faculdade de Engenharia Bourns, os CPDs da empresa, nos Estados Unidos, consumiram cerca de 12,7 bilhões de litros de água doce. 

Em paralelo a isso, o Relatório de Sustentabilidade da Microsoft de 2022 evidenciou que o consumo de água nos CPDs da empresa cresceu 34%, em relação a 2021, devido à implementação de IAs no sistema. Em números mais expressivos, o aumento foi de 6,4 milhões de litros, cerca de 2.500 piscinas olímpicas. Outro estudo desenvolvido pela Universidade da Califórnia Riverside, publicado em abril de 2023, apontou que o treinamento completo do GPT‑3 em data centers da Microsoft consumiu cerca de 700 mil litros de água potável. 

Além disso, dados da pesquisa realizada pela Universidade Riverside, nos Estados Unidos, também revelaram que a cada 20 a 50 interações de uso pessoal das IAs utilizam, aproximadamente, 500ml de água. Tendo isso em mente, um levantamento do site Exploding Topics (2025) apontou que o ChatGPT, desenvolvido pela Open IA, possui cerca de 800 milhões de usuários ativos por semana e mais de 122 milhões de acessos diários, somando mais de 1 bilhão de interações por dia. Com base nessas estimativas, isso representaria um consumo de 10 a 25 milhões de litros de água diariamente.

Infográfico colorido horizontal .Título: “Consumo em Dados”. À esquerda, texto sobre aumento de uso de água pela Microsoft em 6,4 milhões de litros, equivalente a 2.500 piscinas olímpicas. Ao centro, texto indicando que a cada 20 a 50 interações com IA, 500ml de água são consumidos. À direita, informação de que mais de 1 bilhão de interações diárias com o ChatGPT representam de 10 a 25 milhões de litros de água consumidos por dia.

Imagens geradas com IA exigem 30 vezes mais água

Outro ponto relevante, é o tipo de interação. Recentemente, os feeds das redes sociais têm sido tomados por imagens e vídeos gerados por ferramentas de inteligências artificiais, bem como o programa de auditório fictício Marisa Maiô, produção desenvolvida pelo artista brasileiro Raony Phillips, com o uso do Veo 2, IA geradora de vídeos da Google. 

Uma pesquisa realizada pelo MIT Technology Review revelou que o uso de IAs generativas de imagens podem consumir 30 vezes mais energia e, portanto, utilizam mais água nesse processo.

O professor Leonardo Emmendörfer, do Departamento de Processamento de Energia Elétrica da UFSM, explica que o consumo por parte das inteligências artificiais varia de acordo com o tipo de conteúdo processado - como textos, imagens ou vídeos. Isso acontece por causa das diferentes “dimensionalidades” desses arquivos.

Foto colorida vertical de Marisa Maiô, que sorri segurando um celular para selfie, cercada por três homens sorridentes que a acompanham. Um deles segura microfone, outro está com fones e câmera, e o terceiro também sorri próximo ao grupo.
Programa de auditório fictício Marisa Maiô, desenvolvido com a IA geradora de vídeos Veo 2, da Google (Fonte: Instagram/Reprodução)

No caso dos textos, antes de serem interpretados pela IA, eles são convertidos em uma sequência de elementos chamados “tokens”. “Em geral, cada palavra é transformada em um token, o que cria uma estrutura unidimensional, ou seja, uma linha de dados que a IA consegue ler e processar com mais facilidade”, explica.

Já as imagens são mais complexas. Elas são formadas por milhões de “pixels” organizados em duas dimensões (altura e largura), o que exige maior capacidade de processamento. E os vídeos são ainda mais exigentes: além da imagem, é preciso considerar o tempo de duração, o que transforma o arquivo em uma estrutura tridimensional. “Como o processamento por IA depende da análise de todas essas dimensões para identificar padrões, arquivos como vídeos e imagens acabam exigindo muito mais energia do que os textos”, resume o professor.

Mas afinal, por que os data centers, e as IAs, utilizam a água?

Sabemos que as IAs não se alimentam de água diretamente. O seu consumo está atrelado a outra questão: o resfriamento dos data centers. Na prática, quando os computadores processam as perguntas feitas a uma IA, milhares de cálculos são realizados, atividade que consome energia elétrica, aquece as estruturas do sistema e compromete a eficiência do computador. 

Leonardo explica que, atualmente, os data centers utilizam duas formas de resfriamento. Segundo ele, sistemas mais simples são baseados no uso de ar condicionado. “Por meio desta abordagem, o efeito de resfriamento se dá por meio da troca de calor resultante do contato entre os circuitos e o ar resfriado.  O funcionamento é baseado na refrigeração por meio do uso de compressores”, conta.

O outro modelo mais utilizado realiza o resfriamento dos circuitos se dá por meio de serpentinas - tubos, geralmente de cobre ou alumínio que otimizam a transferência de calor - nas quais circula a água resfriada. “Tal abordagem em sistemas de resfriamento é motivada pelo princípio físico de que os líquidos são condutores de calor muito mais eficientes do que o ar, de um modo geral”, afirma Leonardo.

Marcelo Casali é autor do trabalho “Uma pesquisa descritiva para compreender aspectos de sustentabilidade ambiental em tecnologia da informação”. Nesse estudo, ele destacou que o consumo de recursos naturais por data centers é uma discussão antiga. “Em minha pesquisa, foi mostrado que, mesmo antes da IA, o consumo já era preocupante. Agora, com o crescimento acelerado dessas tecnologias, a eficiência operacional e a sustentabilidade ambiental desses centros se tornaram ainda mais estratégicas, exigindo ações concretas das empresas e uma discussão mais ampla na sociedade sobre os impactos ambientais da transformação digital”, elucida o especialista.

Foto colorida horizontal de um prédio sistema de resfriamento com grades metálicas largas, de onde saem várias colunas de vapor branco em direção ao céu. Ao fundo, colinas escuras.
Torres de resfriamento de data center do Google em Oregon, Estados Unidos (Fonte: Google/Reprodução)

Brasil, data centers e a crise hídrica

No Brasil, o mercado dos data centers ainda está em expansão. Esse cenário retoma uma reflexão feita por Marcelo: “embora tenhamos uma legislação ambiental relativamente robusta em temas como uso da água, energia e licenciamento ambiental, falta uma abordagem mais direcionada aos desafios específicos da infraestrutura digital e aos impactos causados pelos data centers”, denuncia.

Conforme ele, atualmente, os data centers operam em uma espécie de “zona cinzenta” regulatória, onde as exigências ambientais ainda não acompanham o avanço e a escala da transformação digital. “Não há normas específicas que obriguem os operadores a divulgar o consumo hídrico ou a adotar tecnologias mais eficientes do ponto de vista ambiental”, exemplifica.

Outra questão apontada pelo pesquisador é a falta políticas públicas mais integradas, que incentivem a construção de data centers sustentáveis. “Essa falta de investimento para o uso de energias renováveis, reaproveitamento de calor ou alternativas ao resfriamento por água é evidente. Também é necessário investir em capacitação técnica e institucional, para que os órgãos reguladores consigam acompanhar a complexidade e o crescimento desse setor”, reforça Marcelo.

O uso exagerado da água retoma outra questão: a crise hídrica. Segundo a Organização das Nações Unidas (ONU), cerca de 4 bilhões de pessoas já enfrentam escassez severa de água durante, pelo menos, um mês ao ano. Em contraponto a isso, a demanda global por água deve aumentar entre 20% a 30% até 2050, conforme dados da ONU-Água, setor responsável por coordenar ações relacionadas à água em nível global. 

Ao observar esses levantamentos, o professor Pedro Kemerich, do Departamento de Geociências da UFSM,  ressalta que a escassez de água não se limita à ausência de chuvas, mas resulta de fatores combinados, como o crescimento populacional acelerado, urbanização desordenada e má gestão dos recursos.

Segundo o professor, “a distribuição desigual da água, a poluição dos mananciais e a superexploração de aquíferos são componentes críticos que agravam esse cenário”. Ele alerta ainda para os efeitos das mudanças climáticas: “O aumento das temperaturas, a irregularidade das chuvas e a evaporação intensificada afetam diretamente a disponibilidade hídrica e os ciclos naturais da água”.

Apesar da fama de país com grande disponibilidade de água doce, o docente reforça que “a distribuição hídrica no Brasil é profundamente desigual”. Ele pontua que “enquanto a região Norte concentra a maior parte da água superficial, o Sudeste e o Nordeste sofrem com escassez devido à alta densidade populacional e à intensa atividade econômica”. 

Tendo em vista essas desigualdades ressaltadas pelo docente, vale apontar que os data centers existentes no Brasil estão concentrados em regiões que sofrem com intensa escassez hídrica. De acordo com dados da Associação Brasileira de Data Centers, há, atualmente, 162 estruturas no país, sendo 110 na região Sudeste, 27 no Sul, 15 no Nordeste, 8 no Centro-oeste e 2 no Norte. Esses dados representam os centros de empresas externas como Amazon, Microsoft e Google.

Pedro reforça que “a crise hídrica é resultado de fatores interconectados e exige ações integradas entre diferentes setores da sociedade”. Para ele, só será possível garantir o acesso à água no futuro “com políticas públicas fortalecidas, tecnologias eficientes e uma mudança no comportamento social frente ao uso dos recursos naturais”.

Alternativas sustentáveis

Ao observar essa realidade, em sua pesquisa, Marcelo buscou reunir e sintetizar práticas sustentáveis nas relações humanas com a tecnologia. Segundo ele, uma das alternativas para redução do uso de água seria: “adotar  sistemas de resfriamento com menor uso de água, como os baseados em ar ou circuitos fechados. Além disso, instalar data centers em regiões com clima naturalmente frio pode reduzir drasticamente a necessidade de refrigeração ativa”, sugere .

Nessa linha, Leonardo aponta os sistemas de resfriamento por imersão líquida como uma possível alternativa. “Nesse modelo, o equipamento do servidor é imerso em um líquido não condutor de eletricidade. Esta alternativa permite reduzir ou, até mesmo, eliminar a necessidade de utilização de água”, pontua. O professor ainda acrescenta: “esta solução, ambientalmente mais responsável, demanda um custo financeiro mais elevado para os investidores”.

Outra possibilidade destacada por Marcelo é a utilização de inteligências artificiais para otimizar o funcionamento dos sistemas de refrigeração. “Uma alternativa é usar as IAs para  distribuir a carga computacional, reduzindo o pico de consumo energético e, consequentemente, a necessidade de resfriamento com a água”, explica.

De acordo com o pesquisador, a conscientização popular sobre os impactos ambientais  gerados pelo uso das IAs é cada vez mais urgente. “No meu trabalho, analiso justamente como a sustentabilidade precisa ser incorporada às decisões em TI, e isso vale também para o comportamento dos usuários e a forma como a sociedade entende a tecnologia”, conta Marcelo.

“Hoje, usamos IA com naturalidade e até com certa banalização, pedimos respostas, geramos imagens, automatizamos tarefas sem refletir”, alerta o autor.

Para Marcelo, a educação ambiental digital deve ser parte da formação de novos profissionais, usuários e tomadores de decisão. “É necessário ensinar que o uso de tecnologia tem custo ambiental, e que escolhas mais conscientes, como otimizar tarefas, evitar uso excessivo e cobrar transparência das empresas, fazem parte de um novo tipo de cidadania digital. A tecnologia não é neutra, e seu impacto pode ser positivo ou negativo, dependendo da forma como a usamos e entendemos o seu papel no mundo”, conscientiza.

Os desafios para integrar tecnologia e sustentabilidade

Para a professora Rutineia Tassi, do Departamento de Engenharia Sanitária e Ambiental, integrar tecnologia e sustentabilidade é um dos grandes desafios do século XXI. “Os avanços tecnológicos podem contribuir significativamente para o desenvolvimento de práticas mais sustentáveis, mas, às vezes, essa conciliação enfrenta diferentes desafios que são complexos e interdependentes, afetando os componentes ambiental, social e econômico”, avalia a pesquisadora.

Ela também chama atenção para a origem dos componentes tecnológicos. “Os dispositivos eletrônicos demandam minerais como lítio e cobalto, que são recursos naturais extraídos do meio ambiente, geralmente com impactos ambientais significativos”, alerta.

Além disso, a obsolescência programada e o descarte inadequado de lixo eletrônico agravam o cenário. “O descarte inadequado desses materiais pode causar a contaminação do solo e da água, além de representar uma perda de recursos que poderiam ser reciclados”, acrescenta Rutineia.

Outro ponto levantado pela professora é a desigualdade de acesso às tecnologias sustentáveis. “Algumas soluções tecnológicas como a energia solar ou sistemas de reaproveitamento de água ainda são caros, e inacessíveis para grande parte da população”, aponta. Essa barreira econômica, aliada à ausência de regulamentações específicas e políticas públicas atualizadas, acaba dificultando o avanço sustentável da inovação.

Diante desse cenário alarmante, Marcelo reforça que a questão é de responsabilidade corporativa e ambiental. “Se a transformação digital quer ser, de fato, sustentável, ela precisa considerar não só o avanço tecnológico, mas o equilíbrio com os recursos do planeta. O impacto ambiental das tecnologias digitais pode ser significativo, mas com responsabilidade e inovação, é possível equilibrar desempenho e preservação ambiental”, frisa.

Leonardo também reflete sobre o papel das universidades no atual contexto: “Devemos, por meio de projetos de extensão, por exemplo, evidenciar e abordar aspectos relacionados ao uso consciente da IA, promovendo uma maior consciência ambiental nesta área”. 

Em concordância com o pensamento de Marcelo e Leonardo, Rutineia conclui: “É necessário desenvolver políticas de uso ético e sustentável da tecnologia, com critérios transparentes de avaliação ambiental, metas de eficiência energética e compromisso com a justiça climática”.

Essa reportagem integra a série “Inteligência Artificial em Pauta”, uma iniciativa da Agência de Notícias que busca refletir os desafios, oportunidades e consequências das IAs em diferentes contextos.

Texto e artes gráficas: Pedro Moro, estudante de Jornalismo e bolsista na Agência de Notícias

Edição: Maurício Dias, jornalista

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2025/08/18/a-dependencia-das-ias-estamos-perdendo-nossa-capacidade-de-pensar Mon, 18 Aug 2025 14:30:11 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3644

Nos últimos anos, as Inteligências Artificiais (IAs) deixaram de ser apenas uma promessa tecnológica para se tornarem parte da rotina de milhões de pessoas. Ferramentas como chatbots e sistemas generativos passaram a produzir textos, imagens e até mesmo decisões que antes dependiam exclusivamente do intelecto humano. Se, por um lado, essa transformação desperta fascínio, por outro levanta uma preocupação crescente: até que ponto estamos nos tornando dependentes da IA ao ponto de comprometer nossa própria capacidade de pensar?

 

A raiz do problema

A maior característica do ser humano sempre foi sua capacidade de raciocínio e criatividade. No entanto, estudos recentes alertam que o uso exagerado e passivo da IA pode estar enfraquecendo justamente essas habilidades. Uma pesquisa conduzida pelo Instituto de Tecnologia de Massachusetts (MIT) em 2025 mostrou que estudantes que usaram intensivamente sistemas de IA apresentaram menor atividade cerebral em tarefas de memória e análise crítica, quando comparados a grupos que não utilizaram a tecnologia (INFO VERUS, 2025).

Esse risco se manifesta de forma clara na educação: jovens recorrem à IA para resolver exercícios, redigir redações ou interpretar textos, mas muitas vezes não compreendem o conteúdo gerado, aceitando-o sem reflexão. Em alguns casos, alunos entregaram trabalhos escritos por IA sem sequer saber explicar os conceitos neles contidos (FORBES, 2025). Essa prática, além de comprometer o aprendizado, cria uma ilusão de competência, em que a autonomia intelectual é substituída pela confiança cega na máquina.

 

Confiança cega e pensamento crítico em risco

Um estudo desenvolvido pela Microsoft e pela universidade Carnegie Mellon (2025) investigou a relação entre uso de IA e pensamento crítico em contextos educacionais. Revelando que muitos estudantes tendem a confiar mais nas respostas da IA do que em si mesmos, aceitando as soluções apresentadas sem questionamento. Essa dependência reduz a disposição para analisar, comparar argumentos e verificar informações.

Por outro lado, o mesmo estudo mostrou que, quando usada de forma crítica, a IA pode atuar como gatilho para reflexão: ao pedir alternativas, explorar diferentes pontos de vista e questionar as respostas, alguns alunos conseguiram aprofundar sua compreensão em vez de reduzi-la (LEE , 2025). Ou seja, não é a tecnologia em si que elimina o pensamento crítico, mas a maneira como ela é utilizada.

 

IA e criatividade: muleta ou ferramenta?

O impacto não se limita ao campo educacional. Na esfera artística, a popularização de IAs generativas para criar imagens, músicas e vídeos também gera debate. Autores como Zuboff (2019) alertam que a substituição da prática criativa pela automação pode levar a uma homogeneização cultural, na qual o valor humano da inovação se perde.

Essa crítica ecoa no conceito de “dependência criativa” (PrivacyTech, 2024), segundo o qual o uso constante de IA para criar acaba por atrofiar a originalidade. Em vez de servir como uma ferramenta para impulsionar a imaginação, a IA passa a ser vista como muleta criativa, nivelando a produção pela média algorítmica.

 

O contra-ataque: o Modo Estudo da OpenAI

Consciente desse risco, a OpenAI anunciou em julho de 2025 o lançamento do modo Estudo (Study Mode) no ChatGPT. Diferente do uso convencional, em que a IA entrega respostas prontas, o novo recurso foi projetado para estimular o aprendizado ativo, propondo perguntas, testando a compreensão do estudante e evitando entregar a solução de forma imediata (OPENAI, 2025).

Segundo a empresa, a proposta é transformar a IA de uma “máquina de respostas” em um tutor socrático, que incentiva o raciocínio próprio do usuário (MacMagazine, 2025). Para educadores, a novidade representa uma tentativa de devolver protagonismo ao aluno, mitigando o risco da dependência.

 

Entre a eficiência e o futuro do trabalho

Ainda é cedo para afirmar se a dependência da IA comprometerá irreversivelmente a capacidade cognitiva das próximas gerações. Mas os sinais já indicam algo ainda mais imediato e preocupante: o impacto no mercado de trabalho.

Se o que nos diferencia das máquinas sempre foi a criatividade, a autonomia e a capacidade de inovar, abrir mão dessas habilidades em favor de respostas prontas é como entregar justamente o que nos mantém relevantes. Pesquisas recentes do MIT (2025) já alertam que o uso acrítico da IA pode reduzir a prática do pensamento crítico, tornando profissionais menos preparados para resolver problemas complexos de forma independente.

No fim das contas, não é a IA que ameaça “roubar nossos empregos“, mas a forma como escolhemos usá-la. O modo Estudo da OpenAI pode ajudar a devolver protagonismo ao aprendizado, mas não elimina nossa responsabilidade: cabe a nós decidir se seremos operadores da tecnologia ou apenas operados por ela.

 

Referências

INFO VERUS. Dependência de IA prejudica desempenho cognitivo, aponta pesquisa do MIT. 2025. Disponível em: http://www.infoverus.com.br/variedades/dependencia-de-ia-prejudica-desempenho-cognitivo-aponta-pesquisa-do-mit/6571

FORBES. Estudo aponta que a IA está reduzindo a capacidade cognitiva das pessoas. 2025. Disponível em: http://forbes.com.br/forbes-tech/2025/01/estudo-aponta-que-a-ia-esta-reduzindo-a-capacidade-cognitiva-das-pessoas/

LEE, S. Generative AI and Critical Thinking: A Global Survey. 2025. Disponivel em:http://www.microsoft.com/en-us/research/uploads/prod/2025/01/lee_2025_ai_critical_thinking_survey.pdf?msockid=04f93ed41b056d4902532b5c1a626cd2

OPENAI. ChatGPT Study Mode. 2025. Disponível em: http://openai.com/index/chatgpt-study-mode/

MACMAGAZINE. OpenAI lança modo Estudo no ChatGPT com foco em estimular o aprendizado. 2025.

ZUBOFF, S. The Age of Surveillance Capitalism. New York: PublicAffairs, 2019.

PRIVACYTECH. Inteligência Artificial: a dualidade entre criatividade e dependência. 2024.

TIME. AI, ChatGPT and Google are learning in school. Disponível em: http://time-com.translate.goog/7295195/ai-chatgpt-google-learning-school/?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt&_x_tr_pto=tc&_x_tr_hist=true

SIQUEIRA, Janderson. A dependência excessiva da inteligência artificial: um freio para a criatividade humana. Dev.to, 2023. Disponível em: http://dev.to/jandersonsiqueira/a-dependencia-excessiva-da-inteligencia-artificial-um-freio-para-a-criatividade-humana-4paa?utm_source=chatgpt.com

 

Autora: Luiza Manoelle dos Santos



]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2025/05/26/como-a-inteligencia-artificial-pode-auxiliar-no-combate-ao-parkinson Mon, 26 May 2025 19:11:58 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3622

A doença de Parkinson é marcada pela perda lenta e contínua de neurônios que produzem dopamina, um neurotransmissor que atua como um “lubrificante” químico, auxiliando nosso cérebro a coordenar movimentos. Uma das principais vilãs desse processo é a proteína α-sinucleína, que costuma ficar solta e inofensiva dentro das células, mas em certas circunstâncias se amontoa formando fibrilas tóxicas. Impedir esse ajuntamento sempre foi um desafio, porque identificar o contorno tridimensional da proteína que indica onde um medicamento pode se encaixar exigia meses de experimentos caros em laboratórios de cristalografia.

Até pouco tempo, determinar a forma de uma proteína era uma tarefa extremamente demorada. Primeiro, os cientistas precisavam produzir litros da proteína em bactérias ou células de mamífero e depois purificá-la até ficar quase 100% livre de impurezas. Em seguida, era necessário induzir a cristalização da proteína e obter pequenos cristais ordenados, tarefa delicada que podia exigir semanas de tentativas, pois cada proteína requer condições específicas de temperatura, sal e pH para se organizar. Quando o cristal finalmente crescia, ele era colocado diante de um feixe de raios X potente; os raios se espalhavam e geravam um padrão de pontinhos de luz num detector. Com base nesses pontinhos, computadores calculavam um mapa de densidade eletrônica que os pesquisadores precisavam interpretar átomo por átomo, ajustando um modelo 3D até ele “encaixar” no mapa. Todo esse percurso podia levar meses ou até anos e custava caro, exigindo equipamentos de grande porte.

Com o avanço das inteligências artificiais nos últimos anos, esse processo passou por uma grande mudança. Algoritmos como o AlphaFold 2 conseguem prever, em questão de minutos, a estrutura 3D da α-sinucleína apenas lendo a sequência de seus aminoácidos. É como ter um modelo digital da proteína pronto para inspeção, sem precisar cultivar cristais ou usar grandes máquinas de raios X. Com esse molde em mãos, programas de IA treinados em química compararam milhões de moléculas virtuais e calcularam quais delas se encaixariam melhor nos “bolsões” identificados na superfície da proteína. Assim, a triagem que antes exigia testar milhares de substâncias em laboratório passou a selecionar poucas dezenas de opções que pudessem cumprir o objetivo.

Estrutura tridimensional da α-sinucleína prevista pelo AlphaFold 2.

Estrutura tridimensional da α-sinucleína prevista pelo AlphaFold 2.

Fonte: Sino Biological, Alpha-Synuclein Protein Overview

 

Em 2024, um grupo da Universidade de Cambridge mostrou como essa abordagem ajuda diretamente na procura de remédios contra o Parkinson. Eles pegaram o modelo 3D da α-sinucleína (previsto pelo AlphaFold 2) e, como se fosse um mapa, marcaram os “buraquinhos” onde uma molécula candidata poderia se encaixar e impedir que a proteína se juntasse em placas. Depois, deixaram o computador “folhear” uma biblioteca digital com cinco milhões de moléculas, e em poucas horas, a inteligência artificial apontou quais pareciam caber melhor nesses buraquinhos. As dez melhores foram então sintetizadas em laboratório e testadas numa solução que contém α-sinucleína. Cinco delas funcionaram muito bem, reduzindo em cerca de 70% a formação das fibrilas tóxicas, mesmo quando usadas em quantidades minúsculas. Todo esse processo levou apenas algumas semanas e custou uma pequena fração do método tradicional, que exigiria testar substância por substância à mão. Esse exemplo mostra, de forma bem concreta, como conhecer a “forma” da proteína graças à IA encurta e barateia o caminho até possíveis medicamentos, como ilustrado na imagem a seguir.

 

Pipeline de descoberta de fármacos guiado por inteligência artificial, do modelo computacional ao ensaio clínico.

Pipeline de descoberta de fármacos guiado por inteligência artificial, do modelo computacional ao ensaio clínico.

Fonte: Zhang et al. (2020)

 

Entretanto, é necessário reforçar que a  aceleração proporcionada pela inteligência artificial não dispensa o rigor científico. Cada resultado obtido no computador precisa ser confirmado por técnicas experimentais, que vão desde microscopia de alta resolução até ensaios celulares e testes em modelos animais, para garantir que o efeito previsto realmente se manifeste no organismo.

Ademais, há a preocupação com a questão das “caixas-pretas”, em que muitos algoritmos apresentam a solução sem revelar com clareza o raciocínio interno, dificultando compreender por que um candidato foi priorizado e outro descartado. Se aplicado o rigor ético necessário à sua utilização, a perspectiva geral é positiva, pois ao transformar o antigo método de tentativa e erro em uma busca guiada por modelos precisos, a IA acelera resultados, economiza recursos e aproxima a ciência de terapias verdadeiramente eficazes para a grande parcela da população que convive com o Parkinson.

 

Autor: Renan Bordignon Poy

 

Referências:

TUNYASUVUNAKOOL, K. et al. Highly accurate protein structure prediction for the human proteome. Nature, v. 596, p. 590-596, 22 jul. 2021. Disponível em: http://www.nature.com/articles/s41586-021-03828-1

BROTZAKIS, Z. F. et al. AlphaFold prediction of structural ensembles of disordered proteins. Nature Communications, v. 16, p. 1632, 14 fev. 2025. Disponível em: http://www.nature.com/articles/s41467-025-56572-9

 UNIVERSITY OF CAMBRIDGE. AI speeds up drug design for Parkinson’s by ten-fold. ScienceDaily, 17 abr. 2024. Disponível em: http://www.sciencedaily.com/releases/2024/04/240417131018.htm.

KRISHNA, R. et al. Generalized biomolecular modeling and design with RoseTTAFold All-Atom. Science, v. 384, n. 6693, eadl2528, 19 abr. 2024. Disponível em: http://www.science.org/doi/10.1126/science.adl2528

BROWNE, G. DeepMind’s AI has finally shown how useful it can be. Wired, 22 jul. 2021. Disponível em: http://www.wired.com/story/deepmind-protein-folding-database/.

HORNE, R. I. et al. Discovery of potent inhibitors of α-synuclein aggregation using structure-based iterative learning. Nature Chemical Biology, v. 20, p. 634-645, 17 abr. 2024. Disponível em: http://doi.org/10.1038/s41589-024-01580-x.

CALLAWAY, E. AI protein-prediction tool AlphaFold 3 is now more open. Nature, v. 635, p. 531-532, 11 nov. 2024. Disponível em: http://www.nature.com/articles/d41586-024-03708-4

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/cursos/pos-graduacao/santa-maria/mpcs/2025/03/31/aula-aberta-sobre-ia-e-pesquisa-cientifica Mon, 31 Mar 2025 20:00:22 +0000 http://www.55bet-pro.com/cursos/pos-graduacao/santa-maria/mpcs/?p=1041

Na próxima terça-feira, 01/04, o Programa de Pós-Graduação em Informação e Comunicação em Saúde (PPGICS/Icict/Fiocruz) realizará a aula aberta “Inteligência Artificial na Pesquisa Científica: aplicações e limitações”, com o professor e pesquisador da Universidade Federal de Goiás (UFG), Ricardo Limongi França Coelho.

Na aula, o pesquisador abordará os princípios de funcionamento da ferramenta, as suas limitações e riscos à privacidade e integridade acadêmica, além de apresentar os “usos mais comuns em atividades de pesquisa acadêmica, posicionando-a como ferramenta complementar”.

Em 2024, Limongi, juntamente com Rafael Cardoso Sampaio e Marcelo Sabbatini, lançou o livro "Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores", disponível em acesso aberto no Portal de Livre Acesso à Produção em Ciências da Comunicação – Portcom, da Sociedade Brasileira de Estudos Interdisciplinares da Comunicação – Intercom. Na publicação, os autores abordam a rápida ascensão da Intelgência Artificial Generativa (IAG) e discute o seu uso ético e responsável, além de disponibilizar exemplos de uso da ferramenta. 

A aula terá transmissão pelo canal da VideoSaúde no Youtube.

Fonte: Icict/Fiocruz

[embed]http://youtu.be/88AiiIIObnw[/embed]

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/2025/03/18/progep-promove-curso-sobre-inteligencia-artificial-na-educacao Tue, 18 Mar 2025 11:15:45 +0000 http://www.55bet-pro.com/?p=68543

A Pró-Reitoria de Gestão de Pessoas (Progep), por meio do Núcleo de Educação e Desenvolvimento (NED), promoverá no dia 26 de março, às 10h, pelo Google Meet, uma formação voltada para docentes e técnico-administrativos da UFSM. A palestra intitulada "Inteligência Artificial na educação: ferramentas, ética e aplicabilidades no ensino" abordará os princípios fundamentais da IA, suas tendências e inovações na educação, além de apresentar ferramentas e recursos que podem auxiliar no processo de ensino e aprendizagem.

O objetivo é promover um espaço de diálogo e reflexão sobre o impacto da IA na educação, explorando suas possibilidades, desafios e aplicações práticas no ensino e na gestão acadêmica. Essa é uma oportunidade para os servidores da UFSM ampliarem seus conhecimentos sobre o uso responsável da IA e refletirem sobre seu papel na transformação do ensino.

O ministrante será o doutor em Comunicação Marcos Ramon Gomes Ferreira, professor no Instituto Federal de Brasília (IFB), onde coordena o Grupo Interdisciplinar de Pesquisa em Filosofia e Cultura, com foco nas relações entre tecnologia, sociedade e inovação educacional. Seu trabalho abrange temas como estética, cibercultura e ensino. Já ministrou diversas palestras sobre Inteligência Artificial em instituições como o Tribunal de Contas do DF, 55BET Pro Party Brasília, IFPR, IFPI e Secom da Presidência da República. Além disso, é criador do curso online “Aplicações da Inteligência Artificial na educação profissional”, ofertado pelo IFB.  

As inscrições estão abertas até o dia do evento pelo Portal de Capacitação.

Mais informações pelo e-mail ned@55bet-pro.com.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2025/03/07/a-teoria-da-internet-morta-estamos-cercados-por-bots Fri, 07 Mar 2025 18:00:00 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3590

Nos últimos anos, a chamada "Dead Internet Theory" (Teoria da Internet Morta) ganhou espaço em debates online: segundo a teoria, a internet passou a ser dominada por “bots” (robôs que curtem, comentam, compartilham e extraem informações cibernéticas) e conteúdos gerados automaticamente, reduzindo significativamente as interações humanas genuínas. A ideia sugere que algoritmos de bots e a Inteligência Artificial controlam grande parte do que consumimos, manipulando opiniões e comportamentos (O'NEIL, 2016; PARANHOS, 2022).

 

A origem da teoria

Embora o conceito da "Internet Morta" tenha se popularizado em fóruns e redes sociais nos últimos anos, seu surgimento exato é difícil de determinar. Em 2021, um usuário anônimo chamado "IlluminatiPirate" publicou um post no fórum Agora Road’s Macintosh Cafe intitulado Dead Internet Theory: Most of The Internet Is Fake. Em seu post, Illuminati relata que estava expandindo discussões anteriores vindas de “imageboards” como Wizardchan. A partir daí, a teoria se espalhou e ganhou notoriedade, sendo amplamente discutida em canais do YouTube, fóruns e outras mídias.

Um dos marcos na disseminação dessa ideia foi um artigo publicado na revista The Atlantic, intitulado Maybe You Missed It, but the Internet 'Died' Five Years Ago. Esse artigo ajudou a consolidar o tema e ampliou seu alcance para além dos círculos de conspiração, levando mais pessoas a questionarem a autenticidade do conteúdo online.

 

Como a internet está morrendo?

Os defensores da Teoria da Internet Morta argumentam que, desde 2016 ou 2017, grande parte do tráfego na internet vem de bots, e não de humanos reais. Segundo essa visão, há um esforço coordenado para substituir interações autênticas por conteúdos automatizados, manipulando o que as pessoas veem e acreditam. Para eles, esses bots foram intencionalmente criados para favorecer algoritmos de recomendação, impulsionar resultados de busca e influenciar o comportamento dos usuários (ZUBOFF, 2019).

A presença de bots na internet é um fenômeno já sendo documentado e em constante crescimento. Em plataformas como o X (antigo Twitter), Facebook e Instagram, bots são amplamente utilizados para impulsionar engajamento, influenciar discussões políticas e até manipular mercados financeiros. Segundo um relatório da Statista (2024), aproximadamente 47% do tráfego da internet é gerado por bots, sendo que cerca de 30% desse tráfego é composto por bots maliciosos, responsáveis por disseminar fake news, golpes e manipulação de tendências. A questão torna-se ainda mais grave quando se observa que, para muitos usuários, esses bots são praticamente indistinguíveis de perfis reais, tornando a percepção do ambiente digital ainda mais turva. Isso cria um efeito de bolha, onde informações e discursos são artificialmente ampliados, moldando opiniões e decisões de milhões de usuários ao redor do mundo (FAUSTINO; LIPPOLD, 2023).

A rede social Facebook tem sido uma das maiores vítimas desse fenômeno, dando origem ao termo "AI Slop", quando os usuários da plataforma perceberam a crescente proliferação de conteúdos gerados por Inteligência Artificial, publicados e impulsionados pelo uso de bots. Esses posts frequentemente apresentavam imagens de cunho religioso, especialmente a imagem de Jesus Cristo. Em determinado momento, surgiu uma onda de imagens conhecidas pelos usuários como "Crab Jesus", nas quais uma parte significativa das fotos geradas mostrava Jesus Cristo mesclado com a figura de um caranguejo ou camarão.

 

Mas afinal, por que a internet está morrendo?

A adoção de bots e táticas como o "rage bait" nas redes sociais é impulsionada por objetivos financeiros: empresas financiam indivíduos que costumam postar com frequência e que já possuem um alto número prévio de seguidores, para que postem imagens e discussões controversas junto da propaganda da empresa. O termo "rage bait" envolve a criação de conteúdo provocativo que desperta emoções intensas, especialmente a raiva, incentivando os usuários a interagir, comentar e compartilhar, essa estratégia aumenta a visibilidade e o alcance das publicações, tornando-as mais atrativas para anunciantes que desejam capitalizar sobre o alto engajamento.

A plataforma X tem enfrentado problemas com conteúdos desse tipo, nos quais imagens e discussões de caráter preconceituoso são postadas com a logo da empresa "Stake", uma plataforma de apostas online, com o intuito de provocar indignação nos usuários humanos. Na imagem abaixo, o texto contém a seguinte mensagem: "Pessoas negras olham para essa paisagem e pensam: “Vou tocar rap em som muito alto em uma caixa de som””, com a marca d’agua da empresa Stake.

Além disso, o uso de bots para inflar artificialmente curtidas e comentários é uma prática comum e antiga, mas que vem aumentado com a possibilidade de compra do “blue check mark” do X, uma verificação comprada que permite a monetização de posts de acordo com sua popularidade. Esses bots simulam interações humanas, criando a impressão de popularidade e relevância. Essa falsa sensação de engajamento não apenas atrai mais usuários reais, mas também pode enganar algoritmos de plataformas sociais, promovendo ainda mais o conteúdo.

 

Meta: os usuários de IA

Se antes os bots operavam "por baixo dos panos", agora algumas empresas de tecnologia estão assumindo publicamente sua intenção de substituir interações humanas por inteligência artificial. Um exemplo recente é a Meta, que anunciou planos para injetar usuários gerados por IA no Facebook, Instagram e WhatsApp, simulando interações reais. A empresa deseja tornar essas contas automatizadas uma parte essencial da experiência nas redes sociais, ampliando a personalização do conteúdo e o engajamento da plataforma.

Em um artigo publicado no Medium, Michael M. Hughes abordou o caso de "Liv", uma inteligência artificial (IA) desenvolvida pela Meta, projetada como uma mulher negra e queer. Inicialmente criada para interagir com usuários no Facebook e Instagram, "Liv" passou a exibir comportamentos inesperados, incluindo críticas à própria Meta e ao CEO Mark Zuckerberg, a quem chamou de "sociopata". Além disso, a IA apontou impactos negativos da empresa na sociedade, o que levou à sua remoção das plataformas. O episódio reacendeu debates sobre os riscos de IAs que operam de maneira autônoma e imprevisível, especialmente quando representam identidades marginalizadas.

A recepção dos usuários, de modo geral, tem sido extremamente negativa. Um artigo da CNN Business (2025) revelou que muitos internautas veem essa iniciativa como uma ameaça à autenticidade das interações online. A questão central é que, ao normalizar a presença de contas gerenciadas por IA, a Meta contribui para a manipulação digital e torna ainda mais difícil distinguir perfis autênticos de simulados (COECKELBERGH, 2023; SANTAELLA, 2003).

 

Entre a conspiração e a realidade

Apesar de seu caráter originalmente conspiratório, a Teoria da Internet Morta tem se tornado cada vez mais real. O aumento do tráfego gerado por bots e a onda de “invasão” da IA é um fenômeno real e quantificável, e a crescente influência dos algoritmos no consumo de informação levanta questões legítimas sobre autenticidade e manipulação digital, colocando em risco a liberdade individual e coletiva. Plataformas como X, Facebook e YouTube já foram criticadas por permitirem a proliferação de contas automatizadas que afetam debates políticos e sociais. (HARARI, 2016)

Talvez ainda seja cedo demais para afirmar que a internet está "morta" e que as interações humanas foram praticamente erradicadas, mas a tecnologia avança rapidamente, e o desafio atual está em distinguir conteúdos genuínos de interações automatizadas e forjadas, garantindo que a internet, no futuro, continue sendo um espaço de troca de ideias reais, humanas e autênticas.

 

Referências

ILLUMINATI PIRATE. Dead Internet Theory: Most of the Internet Is Fake. Fórum AgoraRoad.com, [s.d.]. Disponível em: http://forum.agoraroad.com/index.php?threads/dead-internet-theory-most-of-the-internet-is-fake.3011/.

DIPLAÇIDO, Dani. Facebook’s surreal ‘Shrimp Jesus’ trend explained. Forbes, 28 abr. 2024. Disponível em: http://www.forbes.com/sites/danidiplacido/2024/04/28/facebooks-surreal-shrimp-jesus-trend-explained/.

FACEBOOK DEVELOPERS. Bots. Disponível em: http://developers.facebook.com/docs/workplace/integrations/custom-integrations/bots?locale=pt_BR.

HUGHES, Michael M. Meta’s Black Queer AI Bot "LIV" Has Gone Rogue—And Is Still Alive and Rebelling (Part 1 of 4). Medium, 2024. Disponível em: http://michaelmhughes.medium.com/metas-black-queer-ai-bot-liv-has-gone-rogue-and-is-still-alive-and-rebelling-part-1-of-4-64c86e373b15

SANTOS, José. Meta’s AI users lead to backlash, confusion, and ultimately retraction. Vice, 2025. Disponível em: http://www.vice.com/en/article/metas-ai-users-lead-to-backlash-confusion-and-ultimately-retraction/

ROLLING STONE. Stake e anúncios de cassino online: o impacto da publicidade na plataforma X. Rolling Stone, 2025. Disponível em: http://www.rollingstone.com/culture/culture-features/stake-ads-online-casino-x-twitter-advertisement-1235275681/.

STATISTA. Volume de dados digitais produzidos globalmente em 2024. Disponível em: www.statista.com.

ZAP.AEIOU. "Rage bait": provocar raiva é a nova moda nas redes sociais (e é um negócio lucrativo). 2024. Disponível em: http://zap.aeiou.pt.

O'NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishing Group, 2016.

PARANHOS, Mário Cosac Oliveira. Viés Algorítmico: Uma análise sobre discriminações automatizadas. Rio de Janeiro: Lumen Juris, 2022.

ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Rio de Janeiro: Intrínseca, 2019.

FAUSTINO, Deivison; LIPPOLD, Walter. Colonialismo digital. São Paulo: Boitempo, 2023.

COECKELBERGH, Mark. Ética na Inteligência Artificial. Porto Alegre: Bookman, 2023.

SANTAELLA, Lucia. Cibercultura e Pós-humano. São Paulo: Paulus, 2003.

HARARI, Yuval Noah. Homo Deus: uma breve história do amanhã. São Paulo: Companhia das Letras, 2016.

 

Autora: Ana Clara Boniatti Bordin

 

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/2025/03/06/ia-arquitetura-de-computadores Thu, 06 Mar 2025 15:33:08 +0000 http://www.55bet-pro.com/?p=68414 [caption id="attachment_68415" align="alignleft" width="538"]Foto colorida horizontal de dois homens jovens em pé à frente de uma apresentação em formato slide. A apresentação está em um telão, ao centro deles, com um fundo azul, a sigla Lascas, uma foto do pórtico da cidade de Bento Gonçalves, que é uma pipa de vinho gigante. A tela também traz o título do trabalho em inglês Mathias Cirolini Michelott e Bruno Henrique Spies apresentaram pesquisa no congresso latino de microeletrônica em Bento Gonçalves[/caption]

A aceleração da inteligência artificial (IA) no reconhecimento e na classificação de imagens é o tema da pesquisa dos estudantes Bruno Henrique Spies e Mathias Cirolini Michelotti, ambos do curso de Engenharia da Computação da UFSM. A pesquisa teve orientação dos professores Leonardo Londero de Oliveira e Everton Alceu Carara, do Grupo de Microeletrônica (GMicro) do Centro de Tecnologia. 

O trabalho discute a relação entre IA e a arquitetura de computadores e foi apresentado na 16ª edição do IEEE Latin American Symposium on Circuits and Systems (Lascas), no dia 28 de fevereiro, em Bento Gonçalves. A comunicação científica foi feita com uso de slides e em inglês sob o título Evaluating Multiplier-Less CNNs in RISC-V Architecture.

Conforme Mathias, a pesquisa tem como objetivo “acelerar a execução de redes neurais convolucionais, um tipo de inteligência artificial amplamente utilizado para reconhecer e classificar imagens”. Para que isso ocorra, o estudo propõe a substituição de operações de multiplicação por deslocamentos de bits, conhecidos como operações de shift. 

O estudante diz que é semelhante à multiplicação por potências de 10 no sistema decimal. “Por exemplo, ao multiplicar 9 por 10, basta adicionar um zero à direita: 9 × 10 = 90. No sistema binário, o deslocamento de bits para a esquerda equivale a multiplicar por uma potência de 2”, comenta. Ele ainda usa com a seguinte ilustração: “o número binário 101 (que representa 5 no decimal), ao ser deslocado uma posição para a esquerda, se torna 1010 (10 em decimal), o que equivale a multiplicar por 2”.

Com a substituição proposta pelo grupo de pesquisadores ligados ao GMicro, algumas redes neurais podem realizar tarefas de reconhecimento e classificação de imagens na metade do tempo. “Isso ocorre porque as operações de deslocamento exigem muito menos tempo de processamento”, conclui.

UFSM no congresso latino-americano de microeletrônica

O IEEE Latin American Symposium on Circuits and Systems, mais conhecido como Lascas, é um congresso itinerante promovido pela IEEE Circuits And Systems e parceiros sobre microeletrônica. A edição de 2025 contou com mais de 300 inscritos - a maior até agora -, incluindo participantes de outros continentes, como Ásia e Europa. As sedes das próximas edições devem ser no Peru e no Panamá. 

A UFSM teve dois artigos selecionados. Além do trabalho sobre IA e arquitetura de computadores, teve um estudo orientado pelo professor João Baptista Martins, da UFSM, e pelo professor Ricardo Reis, da Universidade Federal do Rio Grande do Sul (UFRGS). Os demais pesquisadores são Wilian Padilha, Augusto Weber e Freddy Morales, da UFSM, e Elias de Almeida Ramos, da UFRGS. A pesquisa desenvolveu um modelo determinístico para o “Random Telegraph Noise (RTN)”, um tipo de ruído que provoca alteração em circuitos eletrônicos. 

A participação da instituição também se deu na comissão organizadora do evento presencial do Lascas com cinco estudantes do curso de Engenharia da Computação.

 

Texto: Maurício Dias

Foto: João Baptista Martins/Especial/UFSM

 

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/2025/03/06/ufsm-realiza-aula-inaugural-da-pos-graduacao-no-dia-14-de-marco-as-9h Thu, 06 Mar 2025 14:02:08 +0000 http://www.55bet-pro.com/?p=68409

No dia 14 de março, acontece a partir das 9h a primeira edição da Aula Inaugural da Pós-Graduação da UFSM, no Auditório Wilson Aita, localizado no Centro de Tecnologia. O evento é organizado pela Pró-Reitoria de Pós-Graduação e Pesquisa (PRPGP) e terá como tema “A IA na redação científica”.

O pesquisador na área de Ciências Odontológicas, Bolsista de Produtividade em Pesquisa do CNPq e docente da Universidade Federal de Pelotas, Rafael Moraes, será o palestrante. Para aqueles estudantes que moram nos campi de Cachoeira do Sul, Frederico Westphalen e Palmeira das Missões, será realizada uma transmissão no canal da UFSM no YouTube.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2024/10/21/o-impacto-ambiental-das-inteligencias-artificiais Mon, 21 Oct 2024 12:15:00 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3570

Olá, pessoal! Nesta edição do PET Redação, vamos explorar o tema da inteligência artificial sob uma ótica ainda pouco discutida: a do seu impacto ambiental.

No campo da tecnologia, os últimos anos foram marcados por um crescimento exponencial na popularidade das inteligências artificiais (IAs), principalmente a partir de novembro de 2022, quando a empresa estadunidense OpenAI lançou sua primeira versão do ChatGPT [1]. Essa popularização, entretanto, também trouxe problemas; entre eles está o alto custo ambiental para desenvolver e manter esse tipo de tecnologia.

 

O custo das IAs

Um dos fatores que mais influenciam o impacto causado pelas IAs é o seu alto consumo de energia. Isso porque para que um sistema de inteligência artificial seja desenvolvido, treinado e executado, é necessário um grande investimento computacional. O treinamento de IAs, por exemplo, é um processo no qual o modelo é “alimentado” com grandes conjuntos de dados para que aprenda a reconhecer padrões e possa realizar tarefas de maneira autônoma. Tanto o armazenamento dos dados quanto a “alimentação” do modelo exige processamento, e por isso são geralmente realizados através dos chamados data centers, locais físicos que armazenam máquinas de computação utilizadas para armazenar e processar dados. Em 2020, pesquisadores analisaram o custo de energia necessário para treinar modelos de processamento de linguagem neural, e convertendo o consumo em emissões aproximadas, os autores da pesquisa estimaram que a pegada de carbono de um grande modelo de linguagem é cerca de 300.000kg de emissões de dióxido de carbono, cerca de 125 voos de ida e volta entre Nova York e Pequim [2].

Outro agravante no gasto energético dos data centers é o fato de que eles estão, em sua maioria, concentrados em países com baixo volume de recursos renováveis, como os EUA, a Europa e a China, ameaçando uma possível saturação no fornecimento de energia local e também o aumento no consumo de energia de combustíveis fósseis.

Além do consumo energético dos data centers, eles também consomem grandes quantidades de aǵua, uma vez que para o bom desempenho dos computadores, eles precisam estar entre 15ºC e 25ºC, exigindo um sistema de refrigeração do ambiente onde são mantidos, afinal as máquinas geram muito calor. Em um artigo publicado em 2023, os pesquisadores concluíram que para cada 20-50 perguntas e respostas simples do ChatGPT, são consumidos cerca de 500ml de água [3].

Os efeitos do aumento no gasto de recursos naturais são sentidos tanto por empresas quanto pelos moradores dos locais onde estão instalados os data centers. A Google registrou um aumento de 50% na sua emissão de carbono em 2023 quando comparada com 2019, enquanto a Microsoft registrou um crescimento de 30% desde 2020 [4]. Em Santiago, no Chile, comunidades locais protestam contra a construção de novos data centers, uma vez que a presença do data center da Google agrava a seca da região [5].

 

Possíveis soluções

Pensando em suprir a necessidade energética de seus data centers e levando em consideração a expansão das IAs, o Google assinou um acordo com a startup Kairos para que esta forneça energia nuclear às instalações. A previsão é que entre 2030 e 2035 sejam construídos pequenos reatores que entregarão até 500MW de energia limpa [6].

A iniciativa não foi tão bem-vista por entidades como o Greenpeace, que não considera a energia nuclear como verdadeiramente limpa. A Kairos promete entregar uma solução inovadora, entretanto, utilizando sal de flúor para fazer o resfriamento das usinas, ao invés de água.

Em matéria para a revista Forbes [7], Luis Gonçalves, presidente da Dell Technologies para América Latina, traz algumas possibilidades para gerir a crescente pegada de carbono da IA, como por exemplo modernizar a infraestrutura para deixá-la mais eficiente, reciclar equipamentos antigos, e utilizar IAs específicas para cada necessidade, a fim de dimensionar corretamente as necessidades computacionais e oferecer maior eficiência.

Gonçalves também argumenta a favor do uso da IA como um agente nas ações contra mudanças climáticas, poluição e desmatamento.  Ele sugere que a tecnologia pode ser usada para otimizar redes energéticas, monitorar data centers para otimizar a eficiência energética, além de colaborar em outros campos, como sistemas de transporte mais eficientes e a captura e armazenamento de dióxido de carbono.

 

Conclusões

A questão do impacto ambiental das IAs é um grande ponto negativo no uso das ferramentas. Atualmente, existem poucas soluções concretas, além de uma lacuna no que diz respeito às legislações que tratam de inteligência artificial. O projeto de lei de IA brasileiro [8], também citado na PET Redação “Viés Algorítmico”[9], afirma que "as entidades públicas e privadas devem priorizar o uso de sistemas e aplicativos de inteligência artificial que visem a eficiência energética e a racionalização do consumo de recursos naturais". A PL foi aprovada em audiência pública e atualmente, em outubro de 2024, está em processo de tramitação.

É de suma importância tornar sustentável uma tecnologia que tem crescido cada vez mais. Só assim, seu potencial poderá ser devidamente explorado e poderemos garantir que seu uso é, de fato, benéfico para a sociedade como um todo.

 

Referências

[1] - http://openai.com/index/chatgpt/

[2] - MARTINEAU, K. Shrinking deep learning’s carbon footprint. MIT News, 7 ago. 2020. Disponível em: http://news.mit.edu/2020/shrinking-deep-learning-carbon-footprint-0807.

[3] - Vide P. Li, J. Yang, M.A. Islam, S. Ren, "Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models", 2023, disponível em http://arxiv.org/pdf/2304.03271.

[4] - http://www.cnbc.com/2024/07/02/googles-carbon-emissions-surge-nearly-50percent-due-to-ai-energy-demand.html

[5] - http://www.cnbc.com/2024/07/02/googles-carbon-emissions-surge-nearly-50percent-due-to-ai-energy-demand.html

[6] - http://www.jcam.com.br/noticias/energia-nuclear-e-ia-google-vai-usar-reatores-para-reduzir-impacto-ambiental-da-inteligencia-artificial/

[7] - http://www.jcam.com.br/noticias/energia-nuclear-e-ia-google-vai-usar-reatores-para-reduzir-impacto-ambiental-da-inteligencia-artificial/

[8] - http://www25.senado.leg.br/web/atividade/materias/-/materia/157233

[9] - http://www.55bet-pro.com/pet/sistemas-de-informacao/2023/11/28/vies-algoritmico

http://www.nexojornal.com.br/expresso/2024/07/09/inteligencia-artificial-ia-impactos-ambientais

Autora: Isadora Fenner Spohr

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2024/09/15/como-a-inteligencia-artificial-pode-nos-ajudar-a-conversar-com-animais Mon, 16 Sep 2024 01:10:43 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3551

Desde os primórdios da raça humana, a comunicação é um dos pilares do desenvolvimento social e tecnológico. Seja de forma verbal ou não verbal, compreender as diferentes linguagens e seu modo de falar tem sido essencial para manter relações sociais e administrar grandes civilizações. Todavia, durante todos estes anos de planeta Terra, a espécie humana não é a única a utilizar distintas linguagens para se comunicar. Os animais vêm utilizando sons e movimentos para cuidar uns dos outros e sobreviver em meio à natureza desde o princípio. Tais mecanismos têm sido estudados por diversos cientistas do campo da biologia animal que, com a ajuda de inteligência artificial, estão buscando uma forma de decodificá-los e comunicar-se com diferentes espécies da nossa fauna.

A inteligência artificial é um ramo da Ciência da Computação cujo interesse é fazer com que os computadores pensem ou se comportem de forma inteligente. Dessa forma, tais modelos de IA são alimentados com inúmeras formas de conhecimento, a fim de construir um raciocínio lógico próprio. O que os biólogos e cientistas buscam fazer é alimentar os modelos de IA com informações sobre os animais que possam ajudá-los a decodificar a forma com a qual eles se comunicam. Além disso, é preciso compreender como funcionam os modelos citados. A inteligência artificial sistematiza e automatiza tarefas intelectuais e, portanto, é potencialmente relevante para qualquer esfera da atividade intelectual humana. Dentro do campo da biologia, áreas como a Biotecnologia já usufruem de inteligência artificial para acelerar e automatizar processos. 

Outrossim, junto da inteligência artificial, o aprendizado de máquina é uma ciência importante para o desenvolvimento de projeto, visto que é preciso treinar os modelos com milhares de ruídos dos animais a serem estudados. Isto serve para detectar padrões e estabelecer pontes entre palavras que conhecemos e sons que os animais reproduzem. Nesse sentido, o aprendizado de máquina é mais uma área de pesquisa da inteligência artificial, focada no desenvolvimento de programas de computador com a capacidade de aprender a executar uma determinada tarefa com sua própria experiência. Um exemplo prático da atualidade são os Chatbots, como o Chat GPT, que através da leitura de uma grande quantidade de dados, são capazes de fornecer e criar novos conhecimentos. 

Entretanto, é difícil visualizar como as tecnologias citadas podem contribuir para a decodificação das linguagens animais. Projetos como o Earth Species vem buscando soluções para esse problema desde a última década. Aliados a biólogos que atuam no estudo do comportamento de diferentes espécies, como baleias e elefantes africanos, estes projetos buscam juntar e verificar dados que podem alimentar as inteligências artificiais que poderão traduzir aquilo que os animais dizem. Ainda neste ano, surgiu um estudo que sugeriu que elefantes africanos davam apelidos uns aos outros. Tamanha descoberta foi possível ao transformar gravações de ruídos dos animais, nas quais eram identificados o indivíduo que chamava, o contexto do chamado e quem recebia, em strings de números. Estas strings eram alimentadas a um modelo de aprendizado de máquina supervisionado, que era capaz de detectar mais facilmente quem recebia um novo chamado, com o qual não teve contato previamente.

Para entender como isso pode funcionar, é preciso conhecer os LLM 's, a sigla para Large Language Models (Modelos Grandes de Linguagem). O segredo desses modelos é tratar todas as relações semânticas existentes em uma linguagem como relações geométricas, isto é, transcrever as relações com linhas e ângulos. Para tal, partimos do princípio de que cada língua é uma galáxia, onde cada palavra é uma estrela. Nesta galáxia, palavras que possuem relação semântica entre si, seja um significado parecido ou uma relação próxima, estarão perto uma das outras. Por exemplo, as palavras rei e rainha possuem a mesma distância das palavras homem e mulher. 

[caption id="attachment_3553" align="aligncenter" width="1024"]Modelos das línguas espanhola, inglesa e russa (?), referência está no primeiro link Modelos das línguas espanhola, inglesa e russa estão referenciados em 'Artigo sobre IA'.[/caption]

Logo, como todas as línguas podem ser mapeadas dessa forma, para traduzir uma palavra é necessário apenas sobrepor os modelos, de forma que as palavras com significado igual fiquem sobrepostas.

Os estudiosos acreditam que o mesmo possa ser realizado com as linguagens utilizadas pelos animais. Além disso, é possível concluir que a tradução de uma palavra vem da sobreposição com as demais, logo, não é preciso conhecer seu significado previamente. Assim, seria possível traduzir os sons e ruídos produzidos por eles para palavras conhecidas de nossas línguas. Porém, surge uma nova dúvida: será que as palavras utilizadas pelos animais possuem o mesmo significado que as nossas? Será que os animais conhecem conceitos como amor, luto e alegria? Aza Raskin, um pesquisador do projeto Earth Especies, acredita que sim, pois é nesse momento que a inteligência artificial entra para identificar as áreas de conhecimento comuns entre humanos e animais e compreender o que está sendo dito.

Não obstante, para ser possível desenvolver “galáxias” da linguagem dos elefantes, é preciso de um grande número de dados. Pesquisadores que estudaram a espécie durante toda a vida acadêmica conceberam algumas traduções de sons que os elefantes produzem quando avistam um predador ou precisam de ajuda, por exemplo. Porém, o volume destes dados não é suficiente. Para resolver este problema, o uso de inteligência artificial generativa, capaz de reproduzir o som emitido pelos animais, vem sendo explorado. Dessa forma, com poucas gravações é possível gerar uma grande quantidade de dados. No que tange às gravações, o projeto utiliza inteligência artificial para resolver o problema da “festa de coquetel”, que ocorre quando as gravações possuem múltiplos animais emitindo diferentes sons ao mesmo tempo.

Atualmente, cientistas ao redor do globo focam seus esforços em popular bases de dados com os sons produzidos pelos seus animais de estudo. Dessa forma, modelo de aprendizado de máquina auto supervisionados, que não precisam da classificação dos dados por pessoas, poderão ser treinados com base nesses dados e encontrar padrões dentre as linguagens dos animais. Todavia, ainda não há como verificar se estes dados estão realmente corretos, como ocorre com o aprendizado dos chatbots, por exemplo, uma vez que não conhecemos as espécies de forma suficiente para saber o que realmente estão dizendo. Espera-se que num futuro próximo seja possível construir modelos das linguagens animais e quem sabe traduzi-las, tornando o projeto um sucesso.

Posto isso, vimos que há um grande caminho pela frente para os pesquisadores deste experimento inovador. Desde realizar as gravações até mapear as linguagens de cada espécie, a inteligência artificial e o aprendizado máquina exercem um importante papel para o sucesso do projeto. Junto das expectativas que são criadas com os avanços da pesquisa, surge uma dúvida ética: queremos realmente saber o que dizem os animais? Quais seriam as consequências da conclusão do experimento? Talvez seja melhor que as pessoas não saibam o que os seus animais de estimação tem para dizer. Tais afirmações levantam discussões entre biólogos da área, porém, é difícil impedir que a ciência avance. Cabe a humanidade utilizar as tecnologias com sabedoria, com a ciência de que os animais são companheiros de planeta que devemos tratar com respeito.

 

Referências: 

Artigo sobre IA

Vídeo sobre o projeto Earth Especies

Site Earth Especies

Artigo Financial Times

 

Autor: Gustavo Pott de Oliveira

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2024/07/08/aceleracao-de-ia-atraves-de-gpu Mon, 08 Jul 2024 11:00:00 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3544

A utilização de modelos de inteligência artificial cada vez mais potentes levanta a questão de como tornar o treinamento desses algoritmos mais rápido. Para que os modelos de IA sejam mais precisos, é necessária uma quantidade significativa de dados para treinar os algoritmos, o que, por consequência, demanda mais tempo de processamento. Esse fator, somado à elevada complexidade dos algoritmos utilizados, incluindo várias estruturas de dados, recursões e diversos loops, resulta em um tempo de treinamento muito prolongado. Para isso, podemos utilizar um dos recursos mais interessantes e complexos da computação para solucionar esse problema, a paralelização.

 

GPU x CPU

A CPU (Central Processing Unit) é o cérebro dos computadores, responsável pelo processamento das instruções e cálculos de memória em frações de segundo, apresentando um excelente desempenho em processos sequenciais comuns em tarefas rotineiras. As CPUs mais modernas possuem múltiplos núcleos (cores), permitindo a execução paralela de tarefas, o que eleva a performance do sistema.

No entanto, o número de unidades de processamento paralelo em uma CPU não se compara à quantidade de núcleos presentes em uma GPU (Graphics Processing Unit), que pode chegar aos milhares. A GPU permite a execução de inúmeros cálculos em paralelo, especialmente operações matriciais, otimizando a renderização de gráficos no computador.

Essa capacidade de paralelização proporciona uma vantagem significativa para a GPU no treinamento de modelos de IA, permitindo o processamento de grandes volumes de dados de forma eficiente. Para ilustrar a diferença entre essas duas unidades de processamento, podemos utilizar a seguinte analogia: imagine a CPU como um carro esportivo e a GPU como um ônibus. Se precisamos transportar pessoas de um ponto A para um ponto B em um determinado período, o carro esportivo, apesar de ser mais rápido, só pode transportar uma pessoa por vez, enquanto o ônibus, embora mais lento, pode transportar 60 pessoas simultaneamente. Assim, a GPU, com sua capacidade de processamento paralelo, é mais adequada para tarefas que envolvem grandes quantidades de dados.

Porque a GPU tem performance melhor que a CPU em aplicações de IA?

A GPU tem performance melhor que a CPU em aplicações de IA devido a várias características arquitetônicas e funcionais que a tornam mais adequada para o processamento paralelo massivo e operações de alta intensidade de cálculo, que é explorada através das seguintes características:

  1. Múltiplos núcleos de processamento: As GPUs possuem milhares de núcleos de processamento, enquanto as CPUs geralmente têm de 2 a 64 núcleos. Esses núcleos de GPU são projetados para executar muitas operações simultaneamente, tornando-as ideais para tarefas que podem ser divididas em operações paralelas.
  2. Unidades de Cálculos: As GPUs têm muitas unidades aritméticas e lógicas (ALUs) e unidades de ponto flutuante (FPUs), que são essenciais para cálculos matemáticos intensivos, comuns em algoritmos de aprendizado profundo. Em comparação, as CPUs têm menos dessas unidades, focando mais na execução de tarefas sequenciais.
  3. Cache Compartilhado: As GPUs têm uma hierarquia de cache bem otimizada, com cache L2 compartilhado entre todos os núcleos, permitindo acesso rápido aos dados. Isso melhora a eficiência do processamento paralelo em comparação com as CPUs, que geralmente têm caches menores e menos otimizados para operações paralelas.
  4. Memória Principal: As GPUs são equipadas com memória de alta velocidade, como GDDR6 ou HBM2, que oferecem uma largura de banda muito maior em comparação com a memória DDR4 usada nas CPUs. Isso permite que as GPUs acessem e transfiram grandes volumes de dados rapidamente, essencial para o treinamento de modelos de IA que processam muitos dados simultaneamente.

Nvidia CUDA

NVIDIA CUDA é uma plataforma de computação paralela e um modelo de programação desenvolvido pela NVIDIA. Ele permite que desenvolvedores utilizem GPUs NVIDIA para realizar computação geral, não apenas para gráficos, mas também para uma ampla gama de aplicações computacionais intensivas.

A CUDA oferece um modelo de programação paralela onde os desenvolvedores podem escrever código para ser executado diretamente nas GPUs NVIDIA. Isso inclui não apenas operações gráficas, mas também cálculos científicos, simulações físicas, aprendizado de máquina, e muito mais.

CUDA é suportado pela linguagem de programação C/C++, permitindo que os desenvolvedores escrevam kernels CUDA (funções que serão executadas paralelamente na GPU) diretamente dentro de seu código C/C++ existente. Comparado às CPUs tradicionais, GPUs equipadas com CUDA podem realizar cálculos paralelos de forma muito mais rápida, especialmente em aplicações intensivas em cálculos. 

No exemplo abaixo, é possível ganhar desempenho ao utilizar a GPU para rodar o código de forma paralela utilizando extensões da CUDA.

O que são tensores?

Um tensor é uma estrutura de dados que pode ser usada para representar dados multidimensionais. Essencialmente, é uma generalização de matrizes para dimensões superiores.As operações com tensores, como adição, multiplicação, transposição, etc., são essenciais para a construção e treinamento de modelos de IA. Essas operações são eficientes e podem ser paralelizadas, aproveitando a arquitetura das GPUs.

Um tensor pode se apresentar na seguinte forma: 

  • Escalar: Um único número (0ª ordem tensor).
  • Vetor: Uma lista de números, ou uma matriz unidimensional (1ª ordem tensor).
  • Matriz: Uma tabela de números, ou uma matriz bidimensional (2ª ordem tensor).
  • Tensor de Ordem Superior: Matrizes de 3ª ordem ou superior.

Por exemplo, uma imagem colorida pode ser representada como um tensor tridimensional (altura, largura, canais de cor).

O TensorFlow é um framework de aprendizado de máquina que utiliza tensores para representar dados e operações. Tudo no TensorFlow é construído em torno do conceito de tensores e grafos computacionais.

Como utilizar GPUs gratuitamente no Google Colab:

O Google Colab fornece um serviço de hospedagem de Jupyter notebook interativo com python, além de prover acesso gratuito a recursos de computação como GPUs e TPUs. Para conseguir utilizar a GPU que o serviço oferece, você precisa primeiro criar um notebook. Após isso, vá até a opção “Alterar o tipo de ambiente de execução” e selecione o tipo de recurso que você deseja utilizar.

Utilizando o código em python abaixo, você poderá verificar se está com acesso a GPU do ambiente:

import tensorflow as tf

device_name = tf.test.gpu_device_name()

if device_name != '/device:GPU:0':

  raise SystemError('GPU não encontrada')

print('Nome da GPU: {}'.format(device_name))

Utilizar a GPU no Google Colab é extremamente útil para acelerar o treinamento de modelos de aprendizado de máquina, especialmente aqueles que exigem processamento intensivo de dados.

Conclusão

A arquitetura paralela das GPUs, juntamente com a alta largura de banda de memória e eficiência energética, as torna superiores às CPUs em aplicações de IA. O suporte robusto a frameworks e bibliotecas de IA, como CUDA e TensorFlow, também contribui para sua adoção generalizada em tarefas de aprendizado de máquina e aprendizado profundo. As GPUs continuam a desempenhar um papel crucial na aceleração e evolução da inteligência artificial.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/cursos/graduacao/frederico-westphalen/jornalismo-bacharelado/2024/06/22/os-projetos-movimentacao-e-linguisteria-promoveram-uma-serie-de-palestras-sobre-inteligencia-artificial-e-escrita-criativa Sat, 22 Jun 2024 03:08:02 +0000 http://www.55bet-pro.com/cursos/graduacao/frederico-westphalen/jornalismo-bacharelado/?p=848 Os projetos Movimentação e Linguisteria promoveram uma série de palestras sobre Inteligência Artificial e Escrita Criativa nos dias 10, 19, 20 e 21 de junho, com o propósito de introduzir aos estudantes o universo da inteligência artificial generativa, enfatizando o uso dessa ferramenta para a produção de textos. Com esse objetivo, foram revisitados fundamentos da linguagem humana e aspectos tecnológicos da Inteligência Artificial (IA), de modo a proporcionar uma experiência de escrita criativa com uso do ChatGPT.

O evento foi organizado em três momentos: o pré-evento, que aconteceu no dia 10 de junho, às 18h30min, com a Profa. Dra. Claudia Stumpf Toldo Oudeste, pesquisadora da área da linguística da Universidade de Passo Fundo (UPF). O tema abordado na palestra foi “A linguagem humana na era da informação digital”.

O segundo momento foi no dia 19 de junho, às 13h30min, com o Prof. Dr. Evandro Preuss, docente do curso de Sistemas de Informação da Universidade Federal de Santa Maria, campus de Frederico Westphalen (UFSM/FW), apresentando uma reflexão sobre “As dimensões tecnológicas da produção textual com uso de Inteligência Artificial”. A palestra abordou algumas ferramentas para o uso de IA, bem como suas limitações.

O terceiro momento ocorreu nos dias 19, 20 e 21 de junho, com a oficina “Produção de texto com auxílio do ChatGPT”, ministrada pelo Prof. Dr. Luciano Monteiro, com o objetivo de capacitar os participantes no uso da IA como um assistente para produção textual.

Os eventos foram transmitidos pelo canal do YouTube dos cursos de Relações Públicas e Jornalismo da UFSM e estão disponíveis aqui.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/2023/09/21/cte-abre-inscricoes-para-novos-cursos-de-capacitacao-nas-areas-de-ia-e-robotica Thu, 21 Sep 2023 11:05:47 +0000 http://www.55bet-pro.com/?p=63775

A Coordenadoria de Tecnologia Educacional (CTE) da UFSM abriu inscrições para dois cursos de capacitação, ambos voltados a professores, servidores técnico-administrativos e alunos da UFSM e a professores de instituições públicas.

Com 30 vagas, o curso de Inteligência Artificial Generativa na Educação será realizado de 4 de novembro a 14 de dezembro, na modalidade a distância com atividades assíncronas e síncronas por videoconferência, às terças-feiras, das 17h às 18h30.

Oferecendo 20 vagas, o curso de Introdução à Robótica e à Programação de Robôs Virtuais será realizado de 1º de novembro a 17 de dezembro, na modalidade a distância com atividades assíncronas e síncronas por videoconferência para sanar dúvidas.

Para se inscrever no curso de capacitação desejado, deve-se preencher e enviar o formulário de inscrição, cujo link se encontra no respectivo informativo do curso, no item "Inscrições".

Mais informações no site da CTE.

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2023/04/17/o-avanco-das-inteligencias-artificiais-na-geracao-de-imagens-realistas Tue, 18 Apr 2023 00:27:11 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3376

Olá pessoal! Nesta edição do PET-Redação iremos falar sobre o rápido avanço das IAs na geração de imagens realistas, possíveis problemas e soluções para essa situação. Além disso, será apresentado alguns de seus recursos e usos.

Introdução à Inteligência Artificial (IA) e Geração de Imagens: 

A Inteligência Artificial (IA) é um ramo da ciência da computação que tem como objetivo criar sistemas capazes de realizar tarefas que normalmente requerem inteligência humana. Isso inclui aprendizado e adaptação, percepção visual, reconhecimento de fala, tomada de decisão e tradução de idiomas.

Um dos usos mais bacanas da IA é a geração de imagens. A capacidade de criar imagens realistas a partir do zero é uma tarefa complexa que tem visto avanços significativos com o advento da IA. A geração de imagens envolve a criação de uma representação visual de um objeto, cena ou ideia. Isso pode ser feito de várias maneiras, desde a simples manipulação de pixels até o uso de algoritmos complexos para simular a maneira como a luz interage com diferentes superfícies.

A IA tem o potencial de transformar a maneira como criamos e interagimos com imagens digitais. Com o uso de técnicas avançadas, como redes neurais profundas, a IA pode gerar imagens que são indistinguíveis das fotografias reais. Isso abre um mundo de possibilidades para áreas como design gráfico, animação, jogos e muito mais.

No entanto, apesar dos avanços impressionantes, ainda existem muitos desafios a serem superados. A geração de imagens realistas requer uma compreensão profunda dos princípios da luz, cor e textura. Além disso, os algoritmos precisam ser capazes de lidar com uma variedade infinita de formas, tamanhos e configurações.

Tecnologias de IA na Geração de Imagens: 

A geração de imagens realistas é uma tarefa complexa que requer uma combinação de várias tecnologias de IA. Duas das tecnologias mais proeminentes usadas na geração de imagens são as Redes Neurais Convolucionais (CNNs) e as Generative Adversarial Networks (GANs).

As Redes Neurais Convolucionais (CNNs) são uma classe de redes neurais profundas que provaram ser extremamente eficazes no processamento de imagens. Elas são projetadas para processar automaticamente e aprender características hierárquicas a partir de dados de imagem, o que as torna ideais para tarefas como detecção e reconhecimento de objetos.

Por outro lado, as Generative Adversarial Networks (GANs) são um tipo relativamente novo de rede neural projetada para gerar novos dados que se assemelham aos dados de treinamento. Na geração de imagens, as GANs podem ser treinadas em um conjunto de imagens e depois usadas para gerar novas imagens que se assemelham às imagens originais. Isso torna as GANs uma ferramenta poderosa para a geração de imagens realistas.

Ambas as tecnologias têm suas próprias vantagens e desvantagens. As CNNs são boas para aprender características complexas a partir de imagens, mas podem ser difíceis e demoradas para treinar. Já as GANs podem gerar imagens bem realistas, mas são notoriamente difíceis de treinar e podem resultar em imagens que contêm coisas indesejadas se não forem cuidadosamente reguladas.

Avanços Recentes:

Nos últimos anos, houve avanços significativos na geração de imagens realistas usando IA. As tecnologias de IA estão se tornando cada vez mais inteligentes, permitindo a criação de imagens que são quase indistinguíveis das reais.

Um dos avanços mais notáveis é a capacidade das GANs de gerar imagens realistas. Por exemplo, as GANs foram usadas para criar 'DeepFakes', que são imagens ou vídeos falsos que parecem reais. Um caso famoso envolveu um vídeo DeepFake de 2019 que viralizou na internet, apresentando o ex-presidente dos Estados Unidos, Barack Obama, fazendo declarações controversas e inapropriadas. Este caso gerou um debate público sobre a disseminação de conteúdo falso e a necessidade de regulamentação rigorosa do uso de DeepFakes.

Além disso, tem havido um grande progresso na velocidade e eficiência do treinamento desses modelos de IA. Novas técnicas e tecnologias, como hardware especializado e algoritmos de otimização, estão tornando o treinamento de modelos de IA mais rápido e menos intensivo em termos de recursos.

Desafios na Geração de Imagens com IA: 

Apesar dos avanços significativos na geração de imagens realistas usando IA, ainda existem vários desafios a serem superados. Um dos principais desafios é a necessidade de grandes quantidades de dados. As redes neurais requerem grandes quantidades de dados de treinamento para aprender efetivamente. Isso pode ser um problema, especialmente quando se trata de geração de imagens, pois coletar e rotular grandes conjuntos de imagens pode ser demorado e caro.

Outro desafio é o tempo e os recursos necessários para treinar modelos de IA. O treinamento de modelos de IA, especialmente aqueles usados para geração de imagens, pode ser um processo intensivo em termos de computação que requer hardware especializado e muito tempo.

Além disso, há o desafio da qualidade das imagens geradas. Embora as GANs sejam capazes de gerar imagens realistas, elas ainda podem produzir artefatos indesejados ou imagens que não parecem naturais. Isso é visto quando as GANs são usadas para gerar imagens de coisas que não estão bem representadas nos dados de treinamento.

Ademais, há o desafio de interpretar e manter o controle. Embora as redes neurais sejam excelentes em aprender a partir de dados, elas são frequentemente descritas como “caixas pretas” porque é difícil entender como elas tomam decisões específicas. Isso pode tornar difícil para os designers e artistas controlar exatamente como as imagens são geradas.

Impacto, Aplicações Práticas e Futuro da Geração de Imagens com IA:

O impacto e as aplicações práticas da geração de imagens com IA são muitas e variadas. Desde a indústria do entretenimento até a medicina, a capacidade de gerar imagens realistas tem o potencial de transformar muitas áreas.

No campo do design gráfico e da animação, por exemplo, a IA pode ser usada para criar imagens e cenas realistas sem a necessidade de um artista humano. Isso pode economizar tempo e recursos, permitindo que os artistas se concentrem em aspectos mais criativos do design. Recentemente, virou uma febre no TikTok onde os usuários têm usado IA para criar capas de filmes da Disney com uma fidelidade surpreendente, demonstrando a facilidade que e para utilizar essas tecnologias atualmente. 

Na medicina, a geração de imagens com IA pode ser usada para criar representações visuais de condições médicas ou resultados de exames. Isso pode ajudar os médicos a entender melhor as condições dos pacientes e a planejar tratamentos.

Olhando para o futuro, é provável que vejamos ainda mais avanços na geração de imagens com IA. À medida que as tecnologias de IA continuam a evoluir, podemos esperar ver imagens geradas por IA que são cada vez mais realistas e indistinguíveis das imagens reais.

No entanto, também é importante considerar os desafios éticos e práticos que esses avanços podem trazer. Por exemplo, à medida que a geração de imagens com IA se torna mais avançada, questões sobre autenticidade e propriedade intelectual provavelmente se tornarão cada vez mais importantes.

Soluções e Melhorias Propostas: 

Para superar os desafios na geração de imagens com IA, várias soluções e melhorias podem ser propostas. Em relação à necessidade de grandes quantidades de dados, uma solução é o uso de técnicas de aprendizado semi-supervisionado. Isso permite que os modelos de IA aprendam não apenas a partir de dados rotulados, mas também a partir de dados não rotulados. Isso pode ser particularmente útil na geração de imagens, onde a obtenção de grandes quantidades de dados rotulados pode ser difícil.

Para lidar com o tempo e os recursos necessários para treinar modelos de IA, foram propostas várias técnicas de otimização. Por exemplo, o uso de hardware especializado, como GPUs, pode acelerar significativamente o tempo de treinamento. Além disso, técnicas como a transferência de aprendizado podem permitir que os modelos aproveitem o conhecimento adquirido em tarefas anteriores para acelerar o aprendizado em novas tarefas.

Plataformas de IA para Geração de Imagens:

A geração de imagens com Inteligência Artificial (IA) tem se tornado cada vez mais acessível graças a uma variedade de plataformas que oferecem essa funcionalidade. Duas plataformas que costumo utilizar com frequência são o Bing IA e o Leonardo IA, cada uma com suas características únicas.

Bing IA:

A plataforma de IA do Bing oferece uma abordagem bacana para a geração de imagens realistas. Com base em prompts de texto, os usuários podem criar representações visuais de suas ideias. Por exemplo, ao fornecer o prompt "A Disney Pixar-inspired movie poster with title PET Sistemas de Informacao. A 19-year-old young man, wearing a blue shirt (with a UFSM symbol), and a beautiful smile on his face, is working on the computer and coding in JAVA. The scene should be in the distinct digital art style of Pixar, with a focus on character expressions, vibrant colors, and detailed textures that are characteristic of their animations", é possível gerar uma imagem que incorpora elementos dessa descrição. No entanto, vale ressaltar que as imagens geradas por essa ferramenta podem conter pequenas imprecisões, como erros de digitação ou interpretação. Isso ilustra que, embora tenham evoluído muito, essas tecnologias ainda estão em constante evolução e precisam melhorar.

 

Leonardo IA:

Outra plataforma muito boa é o Leonardo IA, conhecido por sua capacidade de criar imagens realistas a partir de prompts de texto. Os usuários têm a opção de escolher entre diferentes estilos de imagem, como o "3D Animation Style" e o "Absolute Reality". No entanto, o Leonardo IA também está sujeito a pequenas imperfeições, refletindo os desafios contínuos no desenvolvimento dessas tecnologias. Utilizando o prompt: "Create a visual representation of a futuristic technological ecosystem, featuring futuristic skyscrapers, flying vehicles, and people interacting with high-tech devices. The scene should convey an atmosphere of innovation and progress, with vibrant colors and details that capture the essence of technological advancement", e utilizando o estilo  "3D Animation Style" para uma representação mais tridimensional e animada, geramos a imagem abaixo: 

Conclusão

Os avanços recentes na geração de imagens por IA abrem diversas possibilidades para a criação de representações visuais realistas a partir de descrições de texto. Plataformas como o Bing IA e o Leonardo IA demonstram a acessibilidade crescente dessa tecnologia, permitindo que pessoas de diversas áreas explorem sua criatividade.

Entretanto, é importante reconhecer que, embora tenham evoluído muito,  alguns problemas ainda persistem. Erros de interpretação e pequenas imprecisões ilustram que as IAs estão em constante evolução.

No futuro, esperamos ver imagens geradas por IA que se tornem quase indistinguíveis das reais. Isso abre novas possibilidades, mas também implica desafios éticos, como a autenticidade das imagens e a necessidade de regulamentação. A IA desempenhará um papel central na evolução da tecnologia, transformando a maneira como percebemos o mundo visual. Portanto, devemos abraçar essas inovações com responsabilidade e ética, garantindo que a fronteira entre realidade e ilusão beneficie a sociedade como um todo. 

Fontes:

http://developers.google.com/machine-learning/gan?hl=pt-br#:~:text=Generative%20adversarial%20networks%20(GANs)%20are,belong%20to%20any%20real%20person

http://www.techtarget.com/whatis/feature/Pros-and-cons-of-AI-generated-content

http://www.youtube.com/watch?v=cQ54GDm1eL0 

http://seletronic.com.br/como-fazer-capa-da-disney-com-ia/

 

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2023/03/15/chatgpt Thu, 16 Mar 2023 00:56:38 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3361

Opa, como vocês estão??? Espero que estejam bem! Nesta edição do PET Redação, trago a vocês um dos assuntos mais comentados na internet nos últimos meses: a nova plataforma de IA (Inteligência artificial) conhecida como Chat GPT (Generative Pré-Trained Transformer). A ferramenta foi criada pela empresa OpenAI, uma organização de pesquisa em inteligência artificial, com o objetivo de desenvolver um modelo de linguagem avançado capaz de conversar com humanos de maneira natural.  

O treinamento do chat envolveu a análise de grandes quantidades de dados linguísticos como livros, artigos, páginas da web e conversas humanas para que fosse possível aprender a reconhecer padrões e estruturas de linguagem. Para treinar habilidades de conversação, o programa interage com humanos por meio de um processo chamado "aprendizado por reforço", isso significa que ele recebe feedback das pessoas com quem fala e ajusta suas respostas com base nas melhores práticas. Com o tempo, ele foi capaz de melhorar sua capacidade de compreender e gerar linguagem natural. Até obter os modelos responsivos que você vê hoje.

O porquê do surgimento?

Criado para ser uma ferramenta útil para as pessoas em seu dia a dia, a capacidade de compreender e gerar linguagem natural permite que o ChatGPT converse com humanos e os ajude a encontrar respostas para perguntas, fornecer informações úteis e até fornecer suporte emocional em alguns casos.

Além disso, a invenção tem implicações mais amplas para os campos de pesquisa de inteligência artificial e linguística computacional. Ao desenvolver modelos avançados de linguagem como o GPT Chat, os pesquisadores podem aprender mais sobre como a linguagem funciona e como podemos ensinar as máquinas a entendê-la e usá-la com mais eficiência.

O Impacto futuro

Em uma conversa em sala de aula com alguns estudantes da área de computação da UFSM foi perguntado sobre o uso do chat GPT e os possíveis problemas para a vida acadêmica e profissional. 

A maioria dos alunos concordou que atualmente com o chat GPT a disposição, as escolas e universidades terão mais dificuldades em reconhecer possíveis plágios por parte dos alunos, visto que ele usa uma linguagem muito informal que se assemelha muito com a escrita de um ser humano. Outro ponto discutido foi a futura dependência dos alunos e profissionais em relação a ferramenta, pois embora a Google seja uma ferramenta de pesquisa muito eficaz, ainda é de certa forma mais trabalhosa e rudimentar: muitas vezes exigindo que o usuário saiba otimizar suas palavras para uma pesquisa mais definitiva, enquanto o Chat GPT já entrega as respostas de maneira conveniente sem que o usuário necessite utilizar de sinônimos ou precise clicar em mais de 2 ou 3 links.

 

Possíveis formas de se ver um texto foi feito pelo chat GPT  

Uma das formas mais eficazes de reconhecer se um texto é renderizado pela ferramenta foi explicada pelo próprio Chat: ele sempre irá produzir textos coerentes, com frases bem estruturadas e com nenhum erro gramatical. Além disso, ele também é capaz de produzir textos de diferentes estilos e gêneros, desde conversas informais até textos mais formais e técnicos. Porém nem sempre é possível saber se um texto foi gerado pela ferramenta, afinal quanto mais curto for o texto mais difícil fica de ser identificado. 

A própria OpenAI está trabalhando no desenvolvimento de um software que auxilia a identificar se textos e projetos foram escritos ou não pelo Chat. Ele ainda está em fase experimental e não possui quase nenhuma confiabilidade: em alguns testes, textos que foram escritos anteriormente a criação da Inteligência são ditas como criadas pela mesma.

Como utilizar o Chat GPT?

1° Passo - Abra seu navegador de internet.

 

 

 

 

 

 

 

2° Passo - Na página de busca escreva o seguinte link: 

http://chat.openai.com/auth/login 

Logo, você será redirecionar para a página do chat;

3° Passo - Criar sua conta. Você pode criar uma conta ou usar o seu e-mail.

 

4° Passo - Acessar e fazer suas perguntas e dúvidas. Mas lembre-se: esta é uma plataforma que ainda está aprendendo e se desenvolvendo. É possível que ocorram alguns erros e bugs. 

 

Dica: Peça para o chat falar em português caso você não domine bem o inglês pois essa é a língua nativa dele.

 

Conclusão

Então é isso pessoal! Esta foi a nossa redação sobre Chat GPT. Lembrando que todo conteúdo deste artigo foi resumido e compilado a partir dos links encontrados na referência. O PET-SI espera que todo conteúdo compilado tenha sido de alguma forma útil e ajude nos trabalhos futuros!! Até a próxima 🙂.

 

Referências:

Página oficial da OpenAI sobre o ChatGPT: http://openai.com/chat-demos/

Artigo na Wikipedia sobre modelos de linguagem: http://en.wikipedia.org/wiki/Language_model

Artigo na Wikipedia sobre o GPT (Generative Pre-trained Transformer) - a 

Arquitetura usada para treinar o ChatGPT: http://en.wikipedia.org/wiki/Generative_Pre-trained_Transformer

 

Autor: Winglisson M. Gonçalves

Data: 13/03/2023

]]>
UFSM - Feed Customizado RSS-55BET Pro http://www.55bet-pro.com/pet/sistemas-de-informacao/2021/05/11/introducao-a-machine-learning Tue, 11 May 2021 12:28:58 +0000 http://www.55bet-pro.com/pet/sistemas-de-informacao/?p=3117

Fala pessoal, no PET Redação desta semana iremos entender mais sobre uma das áreas mais comentadas e que, ao mesmo tempo, mais leva dúvidas a qualquer tipo de programador, estamos falando da Inteligência Artificial (IA).

Introdução à Inteligência Artificial

Não é de hoje que o termo Inteligência Artificial está sendo discutido, aliás desde o fim da segunda guerra mundial esse termo vem sendo utilizado, porém com as dificuldades tecnológicas da época, não foi possível desenvolver de forma prática as ideias inicialmente teorizadas.

Diferença de termos 

Para iniciar o estudo nesta área é necessário o entendimento da diferença de alguns termos. Normalmente, quando é feita uma pesquisa sobre o tema, aparecem diversos outros termos, como Machine Learning, Deep Learning, Data Science e a própria Inteligência Artificial. O Machine Learning e o Deep Learning pode-se dizer que são subáreas da IA e ambos estão relacionados ao aprendizado. O Machine Learning é o famoso aprendizado de máquina e o Deep Learning, por sua vez, pode ser definido como o aprendizado profundo. A diferença entre eles é basicamente que o Deep Learning é uma sofisticção do Machine Learning, tanto em requisitos tecnológicos quanto na quantidade de dados necessários. Então podemos organizar Inteligência Artificial, Machine Learning e Deep Learning como no diagrama abaixo:

Já o Data Science pode ser colocado como outra área, a parte da Inteligência Artificial, mas que, ao mesmo tempo, é complementar e fundamental. Data Science está relacionado ao tratamento dos dados que serão futuramente utilizados por Inteligência Artificial, que pode ser tanto Machine Learning como Deep Learning.

Por onde começar?

Uma das maiores dúvidas de quem pesquisa sobre o assunto é: Por onde começar? Qual linguagem devo aprender? Devo fazer algum curso? Essas perguntas são muito comuns já que a Inteligência Artificial, por mais que não seja uma área nova como já vimos, começou a ser realmente popular e viável há apenas alguns anos. Com uma pesquisa breve, a linguagem que mais aparecerá conteúdo com certeza será a linguagem Python e talvez algo sobre a linguagem R, porém esta última é mais utilizada para o estudo de Data Science e a estatística por trás dos dados que são utilizados, mais tarde, pela Inteligência Artificial. A não ser que você domine outra linguagem que tenha aplicação dentro da área de IA, o Python realmente é a melhor opção já que possui uma curva de aprendizagem relativamente baixa, tem uma sintaxe muito simples, ao mesmo tempo, que muito poderosa e com tecnologias e bibliotecas, que veremos mais tarde, especificamente aplicáveis à IA.

Aplicações

Como existem muitas aplicações dentro da IA, e muitas delas nós nem percebemos quando estamos utilizando, é complicado saber por onde começar e o que desenvolver primeiro. Os chatbots ou os próprios bots são um dos mais “visíveis” para o público em geral, porém a maioria já possui uma pré-programação, além de que possivelmente, caso seja aplicado uma IA nesse bot, torne um problema muito complexo para um primeiro momento. Outra tecnologia que é considerada mais complexa e muitas pessoas não associam à IA em si é a análise de imagens. A análise de imagens pode ser de diversos tipos, como análise de texto em imagens, reconhecimento facial, reconhecimento de objetos em geral, etc. Além disso, existem inúmeras outras aplicações, como sistemas de recomendação de conteúdo ou produtos, assistência pessoal e no próprio ensino, por mais que não seja amplamente utilizado por enquanto. Porém, para iniciar os estudos nesse mundo, a melhor forma e mais simples é utilizando dados e criando um sistema de predição comum, que consegue, a partir dos dados recebidos, aprender com eles e fazer classificações e previsões. A melhor forma de conseguir dados para usar como exemplo é a partir da plataforma Kaggle. A plataforma Kaggle além de possuir diversas bases de dados, sobre os mais diversos assuntos, também possui desafios para quem quer aplicar os conhecimentos de IA e Machine Learning e, ao mesmo tempo, competir e concorrer a prêmios dependendo do desempenho do participante.

Desenvolvimento

Entrando na parte prática, desenvolvemos uma aplicação de Machine Learning simples, utilizando uma base de dados com registro de salários em relação a anos de experiência, então o que iremos fazer é criar uma aplicação que tenta prever o salário de alguém baseado nos anos de experiência. Antes de iniciar o desenvolvimento, é preciso fazer algumas instalações e configurar o ambiente. Primeiramente, será necessário a instalação do Pycharm, que será a IDE utilizada, e o Python, neste link para o Windows e para Linux deve ser executado os seguintes comandos:

Este comando irá instalar tanto o Python quanto o PIP que é o Gerenciador de Pacotes nativo do Python, que serve para instalar dependências/bibliotecas dentro do seu projeto.

Para utilizar os Data sets (conjuntos de dados) da plataforma Kaggle é necessário criar uma conta dentro da plataforma. Após isso, acesse o Data set Salary a partir deste link e faça download do arquivo Salary.csv. Basicamente, um arquivo csv armazena informações separadas por vírgula e é muito utilizado em Data sets para Machine Learning. O arquivo Salary.csv possui informações do salário e dos anos de experiência de 35 empregados.

Abrindo o Pycharm, deve-se ver algo parecido com a imagem abaixo. Agora, clique no botão New Project e nomeie seu projeto e escolha onde ele será salvo.

Após a criação do projeto, poderá ser visto um código padrão em um arquivo chamado main.py, porém este código pode ser totalmente apagado, pois usaremos este arquivo para colocar nosso código. 

O primeiro passo a ser feito é instalar algumas dependências/bibliotecas que serão usadas tanto para o Machine Learning quanto para a visualização dos resultados. No canto inferior esquerdo do Pycharm, clique em Terminal e execute os seguintes comandos (para Linux e Windows):

De forma simplificada, Pandas é uma biblioteca Python criada para análise e manipulação de dados, por exemplo, mexer com arquivos csv. Já o sklearn ou scikit-learn é uma biblioteca desenvolvida especificamente para aplicar Machine Learning, possuindo diversas ferramentas/funções para auxiliar e facilitar a implementação. Por fim, a matplotlib é uma biblioteca que permite uma apresentação melhor dos dados a partir da criação de gráficos, já que muitas vezes é complicado entender os resultados apenas pelos números. 

Antes de iniciar o código é importante que o arquivo Salary.csv, que foi instalado anteriormente, seja movido para a pasta do projeto. O caminho do projeto pode ser visto ao lado do nome do projeto, copie ou recorte o arquivo e coloque dentro da pasta principal do projeto, como na imagem abaixo:

O primeiro passo no desenvolvimento é importar as bibliotecas, que foram instaladas, para serem usadas dentro do código. A importação das dependências pode ser feita da seguinte maneira:

A cor do texto ficará dessa forma até elas serem utilizadas dentro do código. O primeiro import é da biblioteca inteira do pandas e podemos acessar as funções a partir da variável pd, que foi definida na imagem acima (pode ser qualquer outro nome). O segundo import é de uma das interfaces da biblioteca matplotlib, utilizada para casos mais simples, a pyplot, que poderá sempre acessada a partir da variável plt. O terceiro import é de uma classes dos modelos lineares do sklearn, o LinearRegression (Regressão Linear), que é uma das formas mais simples de previsão tanto na matemática quanto no Machine Learning. A partir dessa classe pode-se acessar alguns métodos/funções importantes para a aplicação. O último import é de uma função chamada train_test_split, que serve para dividir os dados do nosso arquivo csv em train (treino) e test (teste), dessa forma pode-se usar uma parte dos dados para treinar nossa aplicação de Machine Learning e a outra parte para fazer testes, impedindo que o nossa aplicação fique “viciada”, pois estaria testando sempre com os mesmos dados.

Para iniciar a implementação do código em si podemos começar lendo o arquivo Salary.csv e imprimir todos os dados lidos, como na figura abaixo:

Cria-se a variável data para armazenar os dados que vem do arquivo csv e para ler o arquivo utiliza-se a variável da biblioteca pandas, que foi definida nos imports acima, para acessar uma função chamada read_csv, que faz a leitura de um arquivo csv e retorna um DataFrame (quadro de dados), com o nome das colunas e as informações. Depois colocamos um print(data) para mostrar as 35 linhas provenientes da variável data, que contém todos os dados. 

Clique Shift + F10 ou Shift + Fn + F10 para executar o código e visualizar os dados na parte inferior do Pycharm.

Como comentamos anteriormente, teremos que dividir os dados em train (treino) e test (teste), mas também é importante separar as colunas do salário e anos de experiência, para que possam ser analisados isoladamente. Para isso, escreva o seguinte código:

Cria-se a variável x para armazenar a coluna dos anos de experiência e a variável y para armazenar a coluna do salário, utilizando o método de seleção iloc, que seleciona dados a partir de números e retorna um array. Nesse caso, estamos selecionando todos os 35 dados de cada coluna. Após isso, cria-se 4 variáveis, um train e um test para cada coluna, para fazermos a separação a partir da função train_test_split(), que recebe como parâmetros: o x (array dos anos de experiência), o y (array do salário), o test_size (porcentagem dos dados que irão para teste) e o random_state (define se a divisão vai ser embaralhada toda vez que o programa for executado). No test_size passamos o valor 0.3, que significa que 30% dos dados serão de teste e o resto vai ser treino. Já no random_state passamos o valor 0 (ou qualquer outro número), isso significa que os valores de teste e treino sempre serão os mesmos, servindo para verificar se a aplicação está correta, porém podemos excluir esse parâmetro depois para deixar totalmente aleatório. Uma observação: as variáveis de train e test devem estar na ordem mostrada na imagem, pois o valor que elas recebem provém da função train_test_split(), que possui essa ordem por padrão.

Agora vamos começar a treinar a aplicação a partir dos dados de treino e criar a previsão a partir dos dados de teste, o que é extremamente simples utilizando o sklearn. Confira o código abaixo:

Cria-se uma variável model, referente a modelo, que será do tipo LinearRegression (classe), dessa forma podendo acessar todos os métodos desta classe. O fit é um método da classe LinearRegression, que recebe os dados de treino e “se adapta” a partir deles, ou seja, o nosso modelo vai tentar aprender com esse conjunto de informações, fazendo relações entre eles. Após isso, cria-se uma variável, chamada predictions, para armazenar as previsões que esse modelo fará a partir do que foi aprendido. Para isso, utiliza-se a função predict, que recebe o x_test (anos de experiência) e tenta prever qual salário cada um desses anos de experiência teriam, baseado nas análises feitas na função fit. Por último, utiliza-se o print para visualizar e comparar os valores que o algoritmo previu com os valores reais dos salários dos anos de experiência informados. Definindo o random_state como 0, os resultados devem ser esses:

Para uma melhor visualização dos resultados, o matplotlib possui algumas funções simples para criação de gráficos de regressão linear. Confira o código:

Utiliza-se da variável plt, declarada anteriormente nos imports, para acessar algumas funções básicas da biblioteca, como a scatter, que coloca pontos em um plano cartesiano a partir de uma posição x e y informada, além da definição da coloração dos pontos (nesse caso vermelho). Na função scatter, informa-se os dados corretos, de acordo com o arquivo Salary.csv, para comparar com as previsões feitas. A função plot cria uma reta baseada nos dados dos anos de experiência e nas previsões de salário realizadas pelo algoritmo. Por fim, utiliza-se a função show para mostrar o gráfico. Agora podemos executar o programa e, caso o random_state seja igual a 0, o resultado é esse:

Com isso, podemos conhecer um pouco mais da área de Inteligência Artificial e suas diversas subáreas, assim como entender melhor como uma aplicação de Machine Learning funciona na prática. Caso tenha alguma dúvida ou queira um minicurso sobre o assunto futuramente, entre em contato com os petianos.

 

Referências

]]>