Literacia dos media

Vídeo

É essencial, a uma sociedade saudável, ter cidadãos que saibam interpretar o que veem, leem e ouvem.

Mas também a saber produzir conteúdos, já que, agora, todos podem ser produtores de media.

Apresentações



A literacia mediática, a rede de aprendizagem e a curadoria de conteúdos estão intimamente ligadas.

São competências básicas (obrigatórias) do professor e de qualquer profissional do século XXI que se quer manter atualizado, num mundo em mudança acelerada.

Se um professor não tem a capacidade de se autoformar, de aprender, quem a terá?

Hoje mais importante do que aquilo que se sabe quando se tira uma licenciatura ou qualquer outro título académico é a capacidade de continuar a aprender. Esta é cada vez mais uma exigência da sociedade atual.

Como podem os professores ensinar a aprender se eles próprios se sentem dependentes da formação, para aprender?


A emergência da Curadoria digital. Uma resposta?

Face à quantidade massiva de informação publicada diariamente na Internet, torna-se fundamental saber encontrar conteúdos relevantes.

É neste contexto que a Curadoria Digital é incontornável - isto é, o processo de selecionar, analisar, filtrar, organizar e partilhar informação relevante.

"O novo analfabetismo não é não saber coisas, é não saber usar a informação" (Jimmy Wales).

Ler mais >>

Hoje, o mundo virtual e o mundo físico sobrepõem-se e tornam-se indistintos.

A informação é avassaladora e as multiliteracias são essenciais para se chegar à solidez do conhecimento.

O mundo mudou.

Nunca como hoje foi tão importante saber procurar, selecionar, usar e comunicar a informação.

Neste processo os direitos de autor, a referência bibliográfica, a citação ganham papel de destaque, até para se entender como o ensino, a aprendizagem, o saber e a ciência se desenvolvem e para que se perceba a diferença entre informação e conhecimento. (...)

Ler mais >>

Para saber mais

Dicas para evitar o plágio acidental

O que é a liberdade de imprensa? | Observador


O que é a literacia?

Entrevistas de rua.

O que são notícias falsas?

As notícias falsas são tão velhas quanto a própria humanidade. Saiba mais sobre a história das notícias falsas e os desafios no presente...

[Rethink Project EU]


Guia básico para identificar notícias falsas


Oito dicas para saber distinguir uma notícia verdadeira, de uma notícia falsa.


A rádio ainda é importante


A promessa de uma nova era de integridade.

Media.The Newsroom | temporada 1 Episódio 3.

Que implicações tem o ativismo na nossa sociedade?

Greta versus Joker | Quem venera quem?


Uma viagem para a literacia mediática

A história da viagem de um jovem rapaz chamado Jack e das suas aventuras através dos oceanos para chegar à ilha de LM. Como em todas as histórias de aventuras, o nosso herói cresce e aprende com os desafios que enfrenta: criaturas perigosas, piratas suspeitos e as condições meteorológicas ameaçadoras.


Artigos dos Media

"O dilema das redes sociais" | 3 mudanças para retomar o controlo sobre a tua vida nas redes segundo Justin Rosenstein, criador do botão "Gosto" no Facebook


Estamos siendo manipulados.

Es la gran conclusión del nuevo documental de Netflix "El dilema de las redes sociales", que expone, a través de las voces de distintos expertos, cómo los gigantes tecnológicos manipulan la psicología humana e influencian nuestros comportamientos.

Una de las más prominentes es la de Justin Rosenstein.

El programador, empresario y filántropo estadounidense trabajó en Google y en Facebook, donde diseñó el famoso botón "me gusta". Es el cofundador de Asana -una aplicación para mejorar la productividad- y de One Project, una iniciativa global sin fines de lucro "para diseñar e implementar nuevas formas de gobernanza y economía" (con base en la colaboración).

Las mayor preocupación de Rosenstein sobre los sistemas de tecnología actual es "cómo explotan y manipulan nuestras mentes", le cuenta a BBC Mundo en conversación telefónica.

"Los sistemas que usamos hoy en día están quebrantados; responden a los intereses de las compañías involucradas. La idea se basa en que el usuario no es el cliente, sino el producto. Y su permanencia en las redes se vende a los anunciantes".

"Pero podemos cambiar la dirección hacia la que va la sociedad", añade, optimista.

"Yo espero que la gente se dé cuenta de que tiene más opciones. Una vez que eres consciente de lo que hace la tecnología -cómo nos está polarizando, desinformando y afectando- tú, como individuo , puedes retomar el control sobre tu vida en las redes, puedes empoderarte y tomar decisiones".

¿Y cómo?

"Teniendo conversaciones como la que estoy teniendo contigo ahora sobre cuáles son los daños potenciales de las tecnologías que usamos, cómo estamos siendo manipulados y cómo podemos cambiar nuestro comportamiento, empezamos a cuestionar las cosas. Yo espero que veamos el comienzo de un renacimiento cultural", añade el matemático.


Rosenstein ofrece tres tipos de soluciones o recomendaciones: unas tienen que ver con cómo usas la tecnología; otras, con cómo te comportas; y otras con cómo actuas en sociedad sociedad.

1. Los cambios "básicos": desactiva las notificaciones

Respecto al uso del dispositivo, Rosenstein recomienda varias cosas "muy básicas".

Se trata de cambios que tienen que ver con cómo usamos la tecnología. "Por ejemplo, desinstalar aplicaciones del teléfono, moderar el tiempo de uso o desactivar las notificaciones", explica.

La cuestión clave para Rosenstein que es que comprendamos que las redes sociales ganan poder cuanto más tiempo pasamos en ellas, y que está en nuestra mano (literalmente, de hecho) evitar que eso ocurra.

"Es como si llevara todo el tiempo en el bolsillo una deliciosa galleta de chocolate. Si la comiera, ganaría peso que no quiero. Se trata de alejarte de algo altamente adictivo".

"Pero hay otros cambios mucho más profundos que tienen que ver con cómo interactuamos entre nosotros", añade Rosenstein.

2. Cambios de comportamiento: cuanto más presente estás, menos rentable eres

"Debemos pasar más tiempo con otras personas, escucharnos y comprendernos para que seamos capaces de reconocer cómo la tecnología (los algoritmos) refuerza nuestros propios sesgos".


"Sin duda, podemos cambiar nuestro comportamiento", dice Rosenstein.

Una de las claves de ese cambio, dice Rosenstein, es enfocarnos en estar más presentes. "Cuando estamos presentes nos sentimos satisfechos; no necesitamos ningún software ni la necesidad de comprar nada. Por eso el que estemos presentes no les resulta rentable a las redes sociales".

"Hay algunas cosas que pueden ayudarnos mucho, como la meditación o practicar la atención plena".

Otra clave es cómo nos comportamos con los demás y no asumir que todo lo que leemos en internet es cierto. "Debemos ser mucho más humildes sobre nuestra propia capacidad de comprender la realidad y darnos cuenta de que muchas cosas que nos han contado puede que no sean ciertas", señala.

"También ser más abiertos a otras perspectivas, a por qué otros piensan distintos. No todos ven la misma información. Hay que ser más compasivos y cuestionar nuestras propias creencias. No perder la curiosidad, escuchar con atención. Y construir relaciones con personas que tienen otros puntos de vista".

Sin embargo, el ingeniero dice que "cambiar nuestro comportamiento como individuos o con los demás no es suficiente" porque "también tiene que cambiar el sistema".

3. Los cambios como sociedad

"Cambiar los comportamientos individuales no es suficiente. Incluso aunque estemos muy atentos y nos esforcemos mucho en usar nuestra atención consciente, siempre hay maneras en que la inteligencia artificial puede ser más lista sin que seamos conscientes de ello", explica el exingeniero de Facebook.

De esa manera, la tecnología puede cambiar nuestras perspectiva y nuestros comportamientos sin que ni siquiera nos demos cuenta, añade.

"Por eso el cambio individual no basta; tenemos que demandar cambios a las empresas tecnológicas. Y no solo eso, sino también reclamar regulaciones a los gobiernos para reducir los daños que causan y haya más transparencia y responsabilidad".

"Estos sistemas no pueden dejarse en manos de grandes corporaciones que tratan de maximizar sus beneficios o el tiempo que pasamos usando su tecnología. Todo esto nos afecta de manera muy profunda y es muy importante que si queremos salvar nuestra democracia, cambiemos la gestión de las redes sociales y qué las incentiva".

Rosenstein propone una junta de representantes de ciudadanos, de manera que los ejecutivos de esas empresas deban dar parte a esos comités, responsables de establecer objetivos acordes con la democracia.

"La tecnología tienen que estar, al menos conceptualmente, en manos de la gente".

¿De qué más habla el documental?

"El dilema de las redes sociales" es un docudrama de 93 minutos, dirigido por el premiado cineasta estadounidense Jeff Orlowski, en el que Rosenstein y otros importantes actores del mundo tecnológico -Tristan Harris (ex Google), Jeff Seibert (ex Twitter), Bailey Richardson (ex Instagram), Tristan Harris (ex Google) y Justin Rosenstein (ex Facebook) o Lynn Fox (ex Apple)- explican cómo funciona el lado oscuro de las redes sociales.


"Muchas de las cosas que se cuentan en 'El dilema de las redes sociales' no son nuevas", explica Rosenstein. "Pero he visto reacciones de mucha gente y es increíble cuántos dicen que eran cosas que no sabían antes".

Con un impresionante puntaje del 90% en la página web de críticas de cine Rotten Tomatoes y reseñas positivas de varios medios de alto perfil, como Variety, Financial Times y Hollywood Reporter, la película está dando mucho de qué hablar.

En Twitter se leen comentarios de espectadores que opinan que es "más perturbador que una película de terror"e incluso lo comparan con un capítulo de la distópica serie "Black Mirror". Otros dicen que les provoca "ansiedad y ganas de tirar el teléfono" o que sintieron "un ansia repentina" por eliminar todo lo que tienen (publicado) en internet.

Quienes lo critican dicen que el hecho de que hable sobre "despertar al Matrix" de las redes sociales no les excluye de formar parte de ese mundo.Otros critican que haya escenas de ficción en una narrativa que aspira a ser informativa (en realidad, es un docudrama), o que, paradójicamente, se haya publicado en Netflix, cuyo algoritmo se nutre de la información de los usuarios.

El hecho de que el documental haya sido número uno (en septiembre) en la plataforma lo convierte en un éxito. (Y además es la primera vez que un documental se coloca como lo más visto).

Pero para Rosenstein, el verdadero éxito es haber logrado que muchos "hayan abierto los ojos al alcance del problema sobre cómo funcionan las redes sociales" y cambien su perspectiva sobre cómo las usan o sobre la confianza que depositan en lo que ven por internet.


"Así como la pornografía es una imitación de la intimidad y ciertos tipos de comida rápida son una imitación de la nutrición, las redes sociales se adentran en estructuras internas del cerebro que activan impulsos básicos que nos resulta muy difícil controlar", cuenta Rosenstein.

"Nos volvemos adictos a eso sin ni siquiera darnos cuenta, es como un truco psicológico. La tecnología puede tener usos fabulosos, el problema es cómo se aplica".

Ler na fonte


Como os algoritmos leem o nosso estado de espírito a partir do que partilhamos online | Teresa Campos | Visão

Há vários anos que a ciência usa computadores para identificar as emoções por detrás das nossas palavras

Pode um algoritmo detetar o humor de um orador, perguntava, provocador o The Wall Street Journal há já três anos, quando se soube que jovens cientistas do MIT – o prestigiado instituto de tecnologia do Massachussets – andavam a treinar um computador para uma tarefa muito particular. A sua intenção era que, considerando uma série de fatores, se conseguisse avaliar as emoções de quem tecla do outro lado. E depois agir em conformidade.

Para tal, os voluntários desse estudo usaram um computador numa viseira, equipado com sensores que captam uma variedade de dados fisiológicos. Um deles era Mohammad Mahdi Ghassemi, que anos antes costumava divertir-se com daqueles anéis que alegadamente identificam o nosso estado de espírito. Eram peças dotadas de uns cristais líquidos na pedra que mudavam de cor à medida que a temperatura da pela mudava – e isso identificava a emoção de quem o usava ao momento. Agora, como estudante de pós-graduação em ciências informáticas no MIT, juntara-se a um colega, Tuka Alhanai, para desenvolver uma tecnologia que permitisse detetar ainda melhor as mudanças de humor de um orador.

Era um sistema baseado na inteligência artificial de um algoritmo informático que registava não só o que estava a ser dito, mas também a forma como o era feito – bem como os sinais vitais do orador. E com estes inputs determinava se uma conversa era feliz, triste ou neutra. Aqueles jovens cientistas do MIT não eram propriamente os primeiros a socorrer-se da inteligência artificial para detetar emoções. Mas ultrapassavam então os limites ao treinarem um computador para ter em conta uma tão vasta gama de fatores ao fazerem julgamentos sobre as emoções. Agora, o processo está muito mais aperfeiçoado.

Em busca de padrões

A intenção de Ghassemi e dos seus colegas era que um dia a tecnologia pudesse ser usada por pessoas que tenham dificuldade em ler as pistas que o rosto dos outros revela, nos encontros pessoais. Aqueles que se encontram no espectro do autismo, por exemplo, poderiam beneficiar de ter colegas de trabalho ou parentes a usar um dispositivo que conseguisse fazer avaliações emocionais continuas. Ou que pudesse ser usada em salas de aula, grupos de discussão ou outros ambientes. O sistema, revelavam então, poderia até treinar pessoas na avaliação do teor emocional de uma conversa ou do humor de uma audiência.

Por essa altura já a Science contava que as redes sociais continham uma enorme quantidade de dados que poderiam ser usados pelas ciências sociais. Milhares de milhões de utilizadores, e centenas de milhares de milhões de tweets e posts todos os anos, abriam então uma oportunidade sem precedentes de usar a inteligência artificial para colher significado daquela massa imensa de comunicações humanas, reconhecia o psicólogo Martin Seligman.

No Centro de Psicologia Positiva da Universidade da Pensilvânia, nos EUA, Seligman e mais de 20 psicólogos, médicos e cientistas informáticos do Projeto de Bem-Estar Mundial testavam o uso de máquinas e do o processamento da linguagem para avaliar a saúde emocional e física do público. Era uma avaliação tradicionalmente feita com inquéritos. Mas os dados das redes sociais eram, frisava Seligman, “discretos, muito mais baratos e de um alcance muito maior”. E, com a ajuda da AI, permitiam revelar padrões.

Prever notas

Num dos estudos, Seligman e os colegas analisaram as atualizações do Facebook de 29 mil utilizadores que tinham feito uma autoavaliação da depressão. Com base nesses dados, o algoritmo que usavam encontrou associações várias entre as palavras nos seus posts e os níveis de depressão. Podia então avaliar com (algum…) sucesso a depressão de outros utilizadores com base apenas nas suas atualizações.

Numa outra experiência, a equipa conseguiu prever taxas de mortalidade por doenças cardíacas, numa determinada região, analisando perto de 150 milhões de tweets. Palavras relacionadas com raiva e relações negativas revelavam-se como fatores de risco. E as previsões ficaram bem mais perto das reais, feitas com base em hábitos e condições como o tabagismo ou a diabetes.

Os investigadores utilizaram ainda as mesmas redes sociais para prever a personalidade, o rendimento e ideologia política – e até para estudar os cuidados hospitalares, experiências místicas e estereótipos. Criou inclusive um mapa a colorir cada região americana de acordo com o bem-estar, depressão, confiança. James Pennebaker, psicólogo social da Universidade do Texas, era assertivo: “Há uma revolução em curso na análise da linguagem e da sua ligação à psicologia”. O mesmo que descobriu que o uso de certas palavras, num ensaio de admissão à faculdade, podia prever as notas.

Um ano com vírus

Agora, decorre já toda uma outra experiência, depois de muitas pessoas terem declarado 2020 como o pior ano da história. Embora tal descrição possa parecer irremediavelmente subjetiva, segundo a Inteligência Artificial é mesmo verdade. Ou melhor, é o que diz o hedonómetro, uma forma computorizada de avaliar sentimentos como a felicidade ou o desânimo. Está a funcionar numas máquinas da Universidade de Vermont, também nos EUA. É ali que recolhe cerca de 50 milhões de tweets e depois converte os dados para ler o estado de espírito daquele publico. E, de acordo com esse hedonómetro, 200 foi – de longe – o ano mais hediondo desde que começaram estes rastreios, em 2008.

Esta maquineta é a encarnação recente de uma tarefa em que os cientistas informáticos trabalham há mais de 50 anos: usar computadores para avaliar o tom emocional das palavras. Para a construir, Chris Danforth teve de lhe ensinar a compreender as emoções que há por detrás dos tweets. O processo, conhecido como análise de sentimentos, tem feito grandes progressos. A avaliação de 2020 como um annus horribilis é só o mais recente.

Aplicação na saúde mental…

Claro que muitos destes estudos não conseguem fornecer informação relevante que permita apoiar políticas de saúde mental, por exemplo. É o que faz questão de salientar Stevie Chancellor, uma perita da NorthWestern University numa área conhecida como informática centrada nas pessoas, e coautora de uma recente revisão de 75 desses estudos, citada num artigo de Dana Mackenzie, doutorado em Matemática, autor de livros sobre ciência, e colaborador de revistas como Science, New Scientist, Scientific American.

Mas, no seu entender, esta análise de sentimentos pode ser clinicamente muito útil, por exemplo, quando se faz a triagem de um novo paciente. É que, mesmo sem dados pessoais, é possível identificar tendências como o nível geral de stress entre estudantes universitários durante uma pandemia. Ou os tipos de interações nas redes sociais que desencadeiam recaídas entre pessoas com distúrbios alimentares. Tudo muito à imagem e semelhança do que este 2020 nos tem provocado.

Fonte.

Ferramentas em linha que combatem a desinformação

As noticias falsas difundem-se diariamente na Internet e nas redes sociais. O seu potencial é tal que, segundo um estudo publicado na revista Science e realizado por membros da rede social Twitter, as informações falsas conseguem difundir-se mais depressa e chegar mais longe que as verdadeiras: têm até 70% mais de retuits que as noticias verdadeiras. E tendo em conta que os estudantes as utilizam todos os dias, é necessário seguir algumas recomendações que ajudam a detetá-las. Também podem recorrer a ferramentas como as que se apresentam a seguir.

Página web que reúne as noticias falsas mais propagadas na Internet, explicando porque não são verdadeiras e, que para além disso, se podem procurar em função da sua temática: ciência, dados ou feminismo. Caso o estudante duvide da veracidade de uma notícia pode recorrer ao seu perfil de WhatsApp para fazer uma consulta à equipa da ‘Maldita’ e averiguar se essa informação é verdadeira.

As imagens das notícias falsas tendem a estar editadas ou descontextualizadas, pelo que podem ser um indicativo preciso de que se trata de uma delas. Esta ferramenta propõe um buscador de imagens no qual os estudantes podem inserir a fotografía de um artigo e encontrar a sua procedência, quer dizer, se corresponde à informação dada ou não. Permite saber em que data se publicou pela primeira vez, onde, a que hora e em que lugar, pelo que se percebe se se trata de uma manipulação.

Esta iniciativa da Asociación de investigadores en eSalud (AIES) y COM SALUD foi criada com o fim de reconhecer e desmontar as notícias falsas através da sua página web e a hashtag #SaludSinBulos no Twitter. Conta com uma equipa de profissionais sanitários que procuram desmascarar os boatos que existem nas redes e publicar informação fiável e verdadeira sobre saúde.

Especializado em informação política, o seu uso na aula fomenta o desenvolvimento do pensamento crítico entre os estudantes e introdu-los no funcionamento do governo ou das eleições. Para isto, este projeto supervisiona as notícias e declarações de políticos sobre todos os temas: educação, mudança climática, infância…

Dispõe de uma ferramenta de busca inversa de imagens que dá a possibilidade de carregar uma fotografia, realizar um rastreio de imagens idênticas ou similares e assim saber ´quando foi tirada . Para utilizá-lo basta ir à página web de Google Imagens e clicar sobre o ícone de uma câmara, o que permitirá fazer o upload da foto e verificar a sua veracidade.