Texto adaptado de smartcitiesdive.com
Gestores de governos locais nos EUA estão explorando potencial da inteligência artificial no setor público. Pesquisas mostram interesse crescente, particularmente no potencial da tecnologia para aumentar eficiência. À medida que IA acelera, políticas sobre uso por funcionários municipais ainda estão sendo escritas. Três cidades com políticas de IA que merecem atenção: San Francisco, Austin e Seattle.
San Francisco: 30 mil funcionários com IA
Verão de 2024: San Francisco concedeu acesso ao Microsoft 365 Copilot Chat para 30 mil funcionários municipais.
Copilot: Assistente de IA integrado ao pacote Microsoft 365 (Word, Excel, PowerPoint, Outlook, Teams).
Funções:
- Redigir emails
- Resumir documentos
- Criar apresentações
- Analisar dados em planilhas
- Gerar relatórios
As 5 diretrizes fundamentais
1. Responsabilidade humana: Usuário humano é responsável por qualquer conteúdo criado por IA que seja usado ou compartilhado.
Tradução: IA erra, culpa é sua.
2. Ferramentas seguras: IA usada deve ser segura (criptografia, proteção de dados, compliance com LGPD).
Proibido: Ferramentas gratuitas online que podem vazar dados sensíveis.
3. Revisão completa: Tudo que IA produz deve ser minuciosamente revisado antes de uso.
Nunca: Copiar-colar sem ler.
4. Divulgação de uso: Trabalho voltado ao público ou sensível deve declarar se IA foi usada.
Transparência: Cidadão tem direito de saber.
5. Proibição de deepfakes Banido criar imagens, áudio ou vídeo falsos que possam ser confundidos com reais.
Razão: Proteger integridade de informação pública.
Declaração oficial
“É importante que nossos trabalhadores estejam bem preparados para usar novas ferramentas responsavelmente, para que estejamos posicionados para ver benefícios de tecnologias emergentes no futuro”, disse Carmen Chu, administradora da cidade, ao anunciar parceria com Microsoft.
Austin (Texas): proteção ao trabalhador primeiro
A resolução (Abril 2024)
Conselho Municipal de Austin aprovou resolução de uso ético de IA que busca cimentar transparência e proteção ao trabalhador.
Componentes-chave
1. Auditoria Pública Anual Uso de IA pela cidade deve ser auditado publicamente todo ano.
Transparência: Cidadãos veem como, onde e por quê IA está sendo usada.
2. Revisão e Supervisão Humana Todo uso de IA exige revisão e supervisão humana.
Zero IA autônoma tomando decisões sem humano no loop.
3. Proibição de Monitoramento Comportamental Baseado em IA IA não pode ser usada para:
- Scoring de produtividade (pontuar desempenho de funcionários)
- Monitoramento comportamental (rastrear movimentos, pausas, velocidade de digitação)
Sem aprovação e verificação de supervisor humano.
Proteção: Evitar vigilância distópica no trabalho.
4. Política “Sem Deslocamento Sem Consulta” IA não pode alterar significativamente classificações de cargos municipais existentes sem:
- Aviso prévio
- Consulta com trabalhadores
Proteção: Impedir demissões “silenciosas” por automação.
Voz dos trabalhadores
“Esta resolução garante que IA seja usada para apoiar — não substituir — trabalhadores públicos”, disse Brydan Summers, presidente do Local 1624 (sindicato que representa ~5.000 trabalhadores de Austin e condado de Travis).
“Ao exigir supervisão humana, banir vigilância contínua e proteger trabalhadores de decisões baseadas apenas em IA, o Item 55 coloca segurança e dignidade da força de trabalho em primeiro lugar”.
Memorando de compliance (dezembro 2024)
A cidade emitiu memorando em conformidade com resolução.
Texas Responsible AI Governance Act também entrou em vigor em 1º de janeiro de 2025.
Seattle: pioneira e iterativa
2023: uma das primeiras políticas de IA do país
Seattle foi uma das primeiras cidades da nação a introduzir política de IA.
Quase 40 projetos-piloto
Cidade experimentou com quase 40 programas-piloto diferentes de IA antes de atualizar política.
Abordagem: Testar, aprender, ajustar.
Outono 2024: atualização da política
Objetivos:
- Reduzir vieses no uso de IA
- Estabelecer limites éticos claros
Proibições específicas
1. Análise de Emoções IA não pode analisar emoções de pessoas (reconhecimento facial de sentimentos).
Razão: Tecnologia é imprecisa e invasiva.
2. Pontuação Social IA não pode criar “social scoring” (sistema de crédito social como na China).
Razão: Viola dignidade e liberdade individual.
3. Integração com Sistemas de Armas IA não pode ser integrada a armas.
Razão: Prevenção de armas autônomas letais.
4. IA Sem Supervisão Humana Proibido usar IA sem supervisão humana.
Regra: Humano sempre no comando.
Capacitação e avaliação
Treinamento: Funcionários municipais recebem capacitação sobre uso responsável de IA.
Método de avaliação: Ferramentas de IA são avaliadas antes de adoção (viés, precisão, segurança).
Declaração oficial
“Seattle continua focada em IA habilitando melhores serviços e maior oportunidade“, disse Rob Lloyd, diretor de tecnologia da cidade, em comunicado de setembro.
“Nossa segunda política de IA se baseia em lições de quase 40 pilotos e projetos, enquanto capacitamos nossas equipes, fazemos parceria com empresas líderes e aplicamos nosso trabalho líder em uso responsável de IA“.

