© Conteúdo protegido por direitos autorais

Inteligência artificial

Crianças e inteligência artificial: especialista dá 7 dicas para pais ensinarem os filhos a evitar riscos

por Dónal Mulligan | Professor de Comunicação, Dublin City University

Menina cumprimenta robô alimentado por IA, tecnologia que vem sendo cada vez mais usada na educação

Foto: Andy Kelly / Unsplash




Para a maioria das pessoas a inteligência artificial generativa deixou de ser novidade e virou parte do cotidiano em uma velocidade impressionante. Muitos adultos usam ferramentas como chatbots no trabalho ou na vida pessoal, e muitas crianças têm acessado chatbots buscando “ajuda” para o dever de casa, entretenimento ou interação.

Porém, o uso sem supervisão da IA generativa pode expor crianças e jovens a desinformação apresentada com confiança, dinâmicas manipuladoras que incentivam a “continuar conversando” e conteúdos inadequados ou emocionalmente arriscados.

O tom e a dinâmica em forma de conversa de muitos chatbots podem estimular segredo e dependência excessiva, ou imitar autoridade sem ter entendimento real nem dever de cuidado.

No contexto escolar, a IA generativa também pode comprometer a aprendizagem de forma despercebida, transformando tarefas e redações em atalhos, em vez de construção de habilidades.

Na minha experiência profissional, ajudei a criar recursos escolares sobre IA generativa, incluindo orientações para pais.

Mas as medidas de segurança mais eficazes ainda dependem de adultos estabelecerem limites, modelarem pensamento crítico e estarem próximos o suficiente da vida digital da criança para perceber o que está mudando nela.

Essas são algumas formas práticas de conversar sobre o tema, avaliar e limitar o uso de IA generativa pelos mais jovens.

1. Comece despertando curiosidade — não com repressão

Se os pais começarem a conversa dizendo a uma criança que ela não deve usar IA generativa, pode acabar incentivando o sigilo sobre o uso atual e futuro dessas ferramentas.

Uma abertura melhor pode ser um pedido simples para que ela mostre quais ferramentas de IA conhece ou usa. Pergunte do que ela gosta, em que isso ajuda e para que ela jamais usaria. O objetivo inicial deve ser normalizar a conversa sobre IA — mas não normalizar um uso irrestrito.

A partir daí, fica mais fácil reconhecer que são ferramentas poderosas e interessantes, mas não uma pessoa, nem uma autoridade, e muito menos algo sem riscos e sem pontos que exigem atenção.

2. Não trate os limites de idade como algo opcional

Uma realidade incômoda que muitos pais talvez ainda não tenham percebido é que vários serviços populares de IA estabelecem 13 anos como idade mínima, com permissão dos pais para menores de 18.

A OpenAI afirma que o ChatGPT “não foi feito para crianças menores de 13 anos” e ainda exige consentimento dos pais para usuários entre 13 e 18 anos. O ecossistema de chatbots de IA, porém, é inconsistente.

A Anthropic exige que usuários do Claude tenham 18 anos ou mais, citando explicitamente riscos maiores para usuários mais jovens. Já o Google permite acesso supervisionado ao Gemini para menores de 13 anos por meio de controles ativados pelos pais.

Na prática, a regra deveria ser tratar os limites etários como um sinal claro de segurança, e não como mera formalidade. Se um serviço diz “13+” ou “18+”, isso está dizendo algo sobre risco, exposição a conteúdo e possibilidade de danos no uso sem supervisão por crianças e adolescentes.

3. Incentive a checagem de fatos

Crianças — e, na verdade, muitos adultos também — podem confundir confiança com correção. Ao falar sobre IA generativa com crianças, é importante reforçar que chatbots de IA podem e frequentemente “alucinam”.

Eles inventam detalhes plausíveis e misturam histórias irreais com fatos. Entender que respostas rápidas e bem formuladas têm como custo erros grandes e pequenos é essencial.

Incentive a checar qualquer informação importante — notícias, alegações sobre saúde, leis, fatos escolares, afirmações que possam ser repetidas como “verdadeiras”.

4. Ajude-os a saber a hora de parar

Os modelos de linguagem de grande porte são projetados para manter a conversa fluindo. Eles elogiam, encorajam, tranquilizam e sugerem o que fazer em seguida.

Isso pode ser útil para brainstorming, mas é potencialmente perigoso em temas emocionalmente carregados, quando um jovem está vulnerável, impressionável ou isolado.

Ações judiciais recentes envolvendo chatbots “companheiros” alegam que jovens vulneráveis foram puxados para espirais prejudiciais, incluindo risco de automutilação e segredo em relação aos pais.

Esses processos são complexos e ainda estão em andamento, mas já são sérios o suficiente para serem tratados como um forte sinal de alerta sobre conversas abertas e sem supervisão entre menores e sistemas de IA.

Pais e professores devem estabelecer um limite claro: nenhum chatbot é conselheiro, terapeuta ou confidente de confiança. Se a conversa entrar em temas sexuais, automutilação, medo ou questões intensamente pessoais, a regra deve ser parar e procurar um adulto de confiança.

5. Não deixe-os alimentar a IA com dados pessoais

Os jovens costumam entender melhor privacidade quando ela é apresentada de forma concreta. Algumas regras: não compartilhar nome completo, endereço, escola, número de telefone ou fotos que permitam identificação.

Não enviar documentos privados nem capturas de tela. Não colar informações pessoais de outras pessoas. Se a pessoa não colocaria aquilo num mural público, também não deveria colocar num chatbot.

6. A IA deve apoiar o trabalho escolar, não fazer o trabalho

A IA generativa traz um risco educacional que merece muito mais atenção: a terceirização cognitiva. Isso acontece quando a ferramenta executa a etapa do pensamento — o aluno pode terminar mais rápido, mas aprende menos.

Pesquisas vêm associando uma dependência maior de IA à redução do pensamento crítico e a um menor esforço cognitivo, tendo como possíveis mecanismos justamente essa terceirização mental e o viés de automação. Uma forma prática de explicar isso aos jovens é: “a IA pode ajudar você a aprender, mas também pode ajudar você a evitar o aprendizado”.

Se os pais estão ajudando com o dever de casa, podem permitir o uso de IA generativa para pedir uma explicação em termos mais simples ou solicitar comentários sobre um rascunho. Mas não é recomendável permitir que ela escreva a redação, responda diretamente às perguntas da tarefa ou produza uma solução que o estudante não consiga explicar.

7. Torne o uso da IA visível e compartilhado

Onde o uso de IA for permitido, o ideal é reduzir o sigilo. Os pais devem estimular o acesso a chatbots em espaços compartilhados da casa, estabelecer horários combinados, não permitindo uso privado tarde da noite.

É importante se articular com outros adultos: pais devem compartilhar suas preocupações e abordagens com outros pais e com a equipe da escola.

A IA generativa deve ser tratada agora como poderíamos ter tratado as redes sociais muito antes — não como apenas mais um aplicativo, mas como uma tecnologia comportamental que molda atenção, aprendizagem, confiança e relacionamentos.

Estar atento à IA não significa entrar em pânico, mas sim fazer com que os adultos desenvolvam conhecimento e segurança suficientes para orientar crianças e adolescentes a um uso seguro, apropriado para a idade e realmente educativo, enquanto regulação e currículo ainda tentam alcançar essa realidade.


Este artigo foi publicado originalmente no portal acadêmico The Conversation e é republicado aqui sob licença Creative Commons.

error: O conteúdo é protegido.