Блог о контент-анализе
Блог практических знаний о контент-анализе
  • Главная
  • Автор
    • О сайте
    • О контент-анализе
    • мой блог о программировании
    • Карта сайта
  • Софт
  • услуги
    • Проведение исследований
    • Обучение контент-анализу
  • курсы
  • Контакты
    • Форум
    • Письмо мне
    • Предложения и пожелания
  • БД
  • Даздраперма
  • ENG
Вы сейчас здесь : Блог о контент-анализе » Обзор программного обеспечения для контент-анализа, Пример контент анализа » Лекта. Качественно-количественный контент-анализ. Часть третья. Матрица контент-анализа

Лекта. Качественно-количественный контент-анализ. Часть третья. Матрица контент-анализа

Published Воскресенье, Сентябрь 9, 2012 By Алексей Рюмин. Under Обзор программного обеспечения для контент-анализа, Пример контент анализа  Tags: Качественный контент-анализ, количественный контент-анализ, корреляционный контент-анализ, Лекта, программное обеспечение, семантический контент-анализ, Уровень: простой  
Предлагаю Вам ознакомиться с моими услугами по проведению и обучению контент-анализу

Прошу Вас уделить 2 минуты на заполнение НЕБОЛЬШОЙ АНКЕТЫ по Вашим предпочтениям относительно содержания блога. Заранее, спасибо!

Здравствуйте, уважаемые читатели блога о контент-анализе! В этой статье я расскажу Вам о следующем этапе проведения контент-анализа в ЛЕКТА — применении словаря к фрагментам текстового массива и получении базовой матрица контент-анализа. Эта публикация достаточно короткая — материал здесь простой, но важный. С матрицей контент-анализа можно продолжать работать не только в ЛЕКТА, но и в таких статистических пакетах, как SPSS, Statistica и других.

Итак, приступим к работе с фильтрами — нашими папками, содержащими наборы лексем. Они станут переменными при дальнейшей работе по проведению факторизации матрицы контент-анализа. Для того чтобы создать единый набор таких фильтров нажмём на кнопку «добавить все папки как новые фильтры»

newfiltersПереходим на закладку ФИЛЬТРЫ и видим развёрнутые папки с лексемами. Сразу же нажимаем на «крестик», чтобы удалить первый пустой фильтр, формируемый системой до добавления фильтров пользователями.

filters1Здесь мы можем редактировать наш набор фильтров, однако это бывает необходимо ОЧЕНЬ редко, поэтому сейчас мы не будем останавливаться на этом функционале ЛЕКТА. Переходим вновь в закладку ФРАГМЕНТЫ. Здесь нам необходимо отметить каждый из фрагментов текстов галочкой. Для этого кликнем по соответствующей кнопке в меню. Этот шаг очень важен! не забудьте про него!


select-all

Теперь, когда все фрагменты выделены, применим наши фильтры — наборы лексем — к ним. Для этого выберем пункт меню «применить фильтры». Далее выбираете название и директорию для будущей матрицы, содержащей результат применения фильтров к текстам.С нетерпением ждём обработки материала…

usefiltersОбычно с массивом текста в 100-200 страниц операция длится около 30 секунд — минуты. С массивом англоязычного текста на 57 000 страниц (один из моих замеров, проведённых в рамках диссертационной работы) ЛЕКТА «возилась» около 12 часов. Для таких массивов нужен как опыт проведения контент-анализа в ЛЕКТА так и неплохой компьютер. Для моего несколько устаревшего ноутбука это было настоящее испытание.

Итак, мы дождались обработки массива. Находим наш файл. Сейчас он не имеет расширения. Кликаем по нему 2 раза и открываем с помощью EXCEL. Вот что мы видим: (я убрал почти все переменные, чтобы показать матрицу полностью в ширину)

matrix

В первом столбце отображается порядковый номер фрагмента текста. Во втором — код исходного текста фрагмента. В третьем — число слов во фрагменте. Далее идут названия папок, включивших себе актуальные лексемы, выбранные нами в ходе работы над словарём. Соответственно на пересечении строк и столбцов указано, какое количество раз встречается любая из лексем в папке словаря во фрагменте текста. Столбец % для нас не будет актуален. И последний столбец содержит сами фрагменты текстов.

Как вы понимаете, уже в EXCEL методом простой сортировки и базовых функций с этой матрицей можно плодотворно работать. Однако, наша работа будет глубже и продуктивнее. В следующей статье я расскажу Вам о том, как идентифицировать отдельные тематические блоки в массиве текстов — найти группы сильно коррелирующих лексем и фрагментов текстов с помощью факторного анализа. Эта работа будет проведена в программе  STATISTICA, хотя в новой версии ЛЕКТА модуль факторного анализа позволяет не прибегать к стороннему софту.На сегодня это всё.

Спасибо за внимание и всего доброго!

Print Friendly, PDF & Email



Related posts

  • Лекта. Качественно-количественный контент-анализ. Часть первая
  • ЛЕКТА - качественно-количественный контент-анализ. Уникальный маркетинговый инструмент для российского рынка.Обзор
  • Лекта. Качественно-количественный контент-анализ. Факторный анализ в Statistica. Часть четвёртая
  • Лекта. Качественно-количественный контент-анализ. Часть вторая. Словарь
  • Выпустил бесплатный видеокурс по контент-анализу
  • Контент-анализ в ЛЕКТА. Обработка матриц факторного анализа в Ecxel. Часть пятая.
  • Открытые вопросы в анкете: контент-анализ ответов респондентов
  • Контент-анализ в ЛЕКТА. Интерпретация матриц факторного анализа и написание отчёта. Часть шестая
  • Профессиональное образование в области text mining, компьютерной лингвистики, контент-анализа и пр.
coded by nessus

 

 

Trackbacks/Pingbacks

  1. Базовая матрица контент-анализа в Micosoft SQL Server | Блог о контент-анализе
« Лекта. Качественно-количественный контент-анализ. Часть вторая. Словарь
Блог о полевом этапе социологических и маркетинговых исследований »
  • Translate blog:
  • Приветствую!

    Меня зовут Алексей Рюмин. Вы находитесь на блоге практических знаний в области контент-анализа. Приятного прочтения материала!

  • Сложность материалов
    • Уровень: простой
    • Уровень: средний
    • Уровень: сложный
  • Предложения и пожелания
    Если у Вас есть предложения по новым публикациям на блоге или по уже опубликованным - буду рад их получить ПО ЭТОЙ ССЫЛКЕ
  • Отличный софт для контент-анализа
    Нужен ли курс о Dedoose? Что такое Dedoose? ПОДРОБНЕЕ ТУТ dedoose
  • Ваши учебные проекты
    Проконсультирую по практической части курсовых, дипломных и диссертационных работ, выполняемой методом контент-анализа.. Окажу помощь написании практической части курсовых, дипломных и диссертационных работ. По вопросам сотрудничества пишите через форму обратной связи.
  • Скачать пример контент-анализа

    Моя книга по результатам контент-анализа англоязычного форума о России. В выборку вошло более 200000 сообщений с форума. Для скачивания, пожалуйста, заполните небольшую анкету. ПЕРЕЙТИ К СКАЧИВАНИЮ КНИГИ

  • Программы для контент-анализа
    • Atlas.ti
    • Concordance
    • Global QDA
    • MAX QDA
    • QDA MINER
    • Sentencesextractor
    • Simple Word Sorter
    • Site Content Analyzer 3
    • Wordstat
    • Yoshikoder
    • ВААЛ-мини
    • Даздраперма
    • Лекта
    • Поисковик-кластеризатор
  • Опрос

    О чём Вы хотели бы прочитать на этом блоге?

    View Results

  • Друзья и партнёры
    • Dedoose — сайт, посвященный программе для качественного контент-анализа Dedoose
    • HRазведка — Блог о разведывательных технологиях в бизнесе, и бизнесе, как разведке
    • Блог психолога, бизнес-тренера Сергея Калинина
  • Рубрики
    • in english
    • Без рубрики
    • Видео о контент-анализе
    • Другой софт
    • мои переводы с английского материалов о контент-анализе
    • Не о контент-анализе
    • Обзор программного обеспечения для контент-анализа
    • Обзоры книг и статей о контент-анализе
    • Обучение контент-анализу
    • Планирование исследования
    • Полевой этап исследования
    • Пример контент анализа
  • Архивы
    • Март 2020
    • Декабрь 2017
    • Октябрь 2017
    • Июль 2017
    • Январь 2017
    • Октябрь 2016
    • Август 2016
    • Июль 2016
    • Январь 2016
    • Ноябрь 2015
    • Октябрь 2015
    • Июль 2015
    • Апрель 2015
    • Март 2015
    • Январь 2015
    • Декабрь 2014
    • Ноябрь 2014
    • Сентябрь 2014
    • Август 2014
    • Июль 2014
    • Май 2014
    • Апрель 2014
    • Март 2014
    • Октябрь 2013
    • Сентябрь 2013
    • Август 2013
    • Июль 2013
    • Май 2013
    • Март 2013
    • Февраль 2013
    • Январь 2013
    • Декабрь 2012
    • Ноябрь 2012
    • Октябрь 2012
    • Сентябрь 2012
    • Август 2012
    • Июль 2012
    • Июнь 2012
    • Май 2012
  • Свежие комментарии
    • Рита к записи Проведение исследований
    • Любовь к записи экспресс контент-анализ текста на advego.ru
    • buying cialis without prescription к записи Бесплатная программа для контент-анализа QDA MINER LITE
    • buy generic cialis pills к записи Компьютерные программы для проведения профессионального контент-анализа
    • buy cialis germany к записи Программа для качественного контент-анализа Global QDA. часть 1
  • Метки
    Atlas.ti concordance dedoose Global QDA MAX QDA QDA MINER SQL Yoshikoder Алан Брайман Даздраперма Качественный контент-анализ Лекта Майк Палмквист СМИ Уровень: простой Уровень: средний блоггинг брендинг видео видеокурс виды контент-анализа качество контента кодирование количественный контент-анализ контент-анализ сайта корреляционный контент-анализ лемматизация майнд карты мой мофт мой софт обзор контент-анализа обзор литературы обучение контент-анализу онлайн контент-анализ планирование планы полевой этап исследования пример контент-анализа программное обеспечение размышлизмы реклама сбор данных семантический контент-анализ софт для поля фоносемантика
  • Яндекс.Метрика
  • статистика
Protect WordPress Theme By PPI
PPI Claims | Personal Injury Claim | Whiplash Compensation
Copyright © 2021. All Rights Reserved.
Translate »