Aqui está a lista dos meus sonhos de recursos para Apple Intelligence
Links rápidos
- Mais ferramentas de edição de imagens
- Geração de imagens mais realistas
- Triagem de chamadas
- Melhores recursos de tradução ao vivo
- A opção de escolher seu LLM de terceiros
Estou muito animado com o lançamento do Apple Intelligence, mas acredito que há muito espaço para melhorias. A Apple poderia adicionar vários recursos para torná-lo ainda melhor. Aqui estão minhas idéias sobre o que poderia levar o conjunto de recursos de IA da Apple para o próximo nível.
1 Mais ferramentas de edição de imagens
O Apple Intelligence oferece apenas um recurso importante de edição de imagens chamado Clean Up, que é semelhante ao Magic Eraser do Google, permitindo remover objetos indesejados das fotos. Embora seja uma adição bem-vinda, não parece inovadora, especialmente porque o Google e a Samsung já oferecem ferramentas semelhantes há algum tempo.
Além do Clean Up, o Apple Intelligence oferece muito pouco em termos de ferramentas de edição de fotos. Por outro lado, o Google Pixel 9 possui muitos recursos de IA incríveis, como Add Me, que garante que todos sejam incluídos nas fotos do grupo, ou Reimagine, que permite substituir partes de uma imagem apenas descrevendo-a com um prompt de texto. Seria ótimo se a Apple pudesse se inspirar no Google e introduzir recursos semelhantes.
Como alguém que não tem muita habilidade em editar fotos, adoraria um recurso que me permitisse gerar filtros com base em um prompt de texto. Eu poderia descrever quais cores quero que se destaquem mais ou o tipo de vibração que pretendo, e o modelo de IA criaria um filtro para corresponder a essa descrição.
2 Geração de imagens mais realistas
A Apple também lançou um novo aplicativo chamado Image Playground como parte do Apple Intelligence, permitindo aos usuários gerar imagens a partir de um prompt de texto em três estilos de arte diferentes: Animação, Ilustração e Esboço. Ele se integra perfeitamente a aplicativos como Mensagens e até plataformas de terceiros. Embora a implementação seja bem feita, não sou fã dos resultados.
Os estilos de arte parecem muito caricaturais para o meu gosto, e não consigo me imaginar usando o Image Playground para criar imagens e enviá-las para amigos ou familiares. Embora o modelo funcione bem para Genmojis, que permite criar emojis personalizados completamente novos por meio de um prompt de texto, deve haver estilos de arte mais realistas disponíveis.
Uma possível razão para isso é que o modelo de difusão de imagem é executado no dispositivo para melhor privacidade. No entanto, eu não me importaria com um modelo de geração de imagem mais realista executado no Private Cloud Compute da Apple para lidar com as demandas computacionais mais altas, que também exclui todos os seus dados após processar suas solicitações.
3 Triagem de chamadas
Um dos meus recursos favoritos do Google Pixel é a triagem de chamadas, onde o Google Assistant atende chamadas para você e fornece uma transcrição ao vivo, ajudando você a decidir se deseja atender a chamada. Ele pode até atender chamadas de números desconhecidos para você e, se detectar que é uma chamada automática ou de spam, o Google Assistente desligará automaticamente a chamada, sem nunca incomodá-lo.
Seria ótimo se o Siri pudesse fazer algo semelhante e gerar respostas automáticas com base no contexto. Por exemplo, se o seu iPhone souber que você está fora, o Siri poderá pedir automaticamente ao entregador para deixar o pacote na sua porta.
Infelizmente, o Apple Intelligence está atualmente limitado a gerar uma transcrição e fornecer um resumo de uma chamada telefônica, mas esta é uma área para a qual a Apple deveria considerar expandir.
4 Recursos melhores de tradução ao vivo
Embora você possa usar o aplicativo Tradutor integrado para tarefas básicas, como digitar texto e lê-lo em voz alta em outro idioma, não posso deixar de sentir que o Apple Intelligence poderia contribuir muito mais.
O que eu realmente gostaria de ver são ferramentas de tradução em tempo real que funcionem em todo o sistema. Um ótimo exemplo é o Live Translate da Samsung, que pode transcrever e traduzir conversas em tempo real durante ligações. O Google também oferece recursos semelhantes que funcionam perfeitamente em vários aplicativos, com todo o processamento acontecendo no dispositivo.
Como a Samsung e o Google já implementaram isso e seus modelos funcionam com eficiência no dispositivo, não vejo por que a Apple não se concentrou nos recursos de tradução com o Apple Intelligence.
5 A opção de escolher seu LLM de terceiros
Embora o Siri esteja recebendo uma grande atualização com recursos como reconhecimento na tela, ele ainda pode não atender a todas as solicitações. Para preencher essas lacunas, ele usa o ChatGPT como alternativa para gerar respostas ou responder perguntas sobre fotos ou documentos.
Embora o ChatGPT seja ótimo, gostaria de poder escolher qual LLM de terceiros desejo usar, da mesma forma que você pode alterar seu mecanismo de pesquisa padrão. Já vimos alternativas ChatGPT que se destacam em tarefas específicas. Seria ainda melhor se os usuários pudessem definir preferências para diferentes tarefas; por exemplo, usar automaticamente Claude para questões relacionadas a imagens, mas mudar para Gemini ou ChatGPT para geração de texto.
Então, esses são os recursos que eu adoraria ver no Apple Intelligence. Dito isso, ainda há muito o que esperar enquanto vemos como o conjunto de IA da Apple se compara às ofertas do Google e da Samsung. Embora não esteja disponível publicamente, você pode experimentar o Apple Intelligence nas versões beta do iOS 18.1 e macOS 15.1. Apenas lembre-se de que sua experiência pode não ser totalmente estável, pois essas ainda são versões experimentais iniciais.