Здравствуйте, уважаемые читатели блога о контент-анализе! Сейчас будет очень небольшая по объёму статья — небольшая, потому что материал будет очень скромный и созданный специально для этого урока. Мы поговорим об XYZ-анализе и его использовании в контент-анализе. Суть XYZ-анализа очень похожа на ABC-анализ. Метод сводится к идентификации 3-х групп массива — группа X постоянно единым образом проявляет себя в течении выборочного промежутка времени, Y — более вариативна, Z -непредсказуема и практически непрогнозируема. То есть метод используется в прогнозировании событий, например, продаж групп товаров. Группа X наиболее надёжна, Z — максимально ненадёжна и непредсказуема, делать ставку на неё опасно.
Рубрика: Пример контент анализа
Применение ABC-анализа в контент-анализе
Здравствуйте, уважаемые читатели блога о контент-анализе! Сегодня мы с вами поговорим об очень популярной методике оценки актуальности, представленности, активности сегментов той или иной совокупности предметов, выявления таких групп. Методика носит название ABC-анализа и берёт своё начало из принципа Парето, который гласит — 80% нашей работы приносит 20% результата, а 20% работы приносит 80% результата. Либо 80% номенклатурных единиц приносит 20% прибыли, а 20% номенклатурных единиц — 80% прибыли. В нашем случае 20% лексем описывают 80% информационного пространства, а 80% лексем описывают 20% информационного пространства.
Качественный контент-анализ документов в программе ATLAS.ti. Кодирование текста. Часть шестая
Здравствуйте, уважаемые читатели блога о контент-анализе! Свершилось — мы с вами добрались до самого важного этапа работы по проведению контент-анализа документов в Atlas.ti — кодирования текста, видео, аудио материалов. В Atlas.ti этот инструмент реализован очень мощно, а одинаково сильных аналогов на рынке программного обеспечения для проведения контент-анализа найти, думаю, нереально…
Итак, мы переходим к кодированию документов в Atlas.ti. Кодировать будем текстовый документ, но чуть позже перейдём и к кодированию видео материалов и картинок. Вы увидите, как просто реализовать такое кодирование в Atlas.ti. Учитывая то, что принципы кодирования для текста или видео, аудио материла либо картинок в целом очень схожи, то освоить кодирование будет не трудно даже на одном типе контента. Различия методик кодирования только в нюансах. Читать далее Качественный контент-анализ документов в программе ATLAS.ti. Кодирование текста. Часть шестая
Контент-анализ в ЛЕКТА. Интерпретация матриц факторного анализа и написание отчёта. Часть шестая
Здравствуйте, уважаемые читатели блога о контент-анализе! Это завершающая статья цикла о контент-анализе в программе ЛЕКТА. Сейчас я расскажу вам, как работать с матрицами факторного анализа, получаемыми в ходе контент-анализа. Напомню ещё раз, что я описываю предыдущую версию программы, функционал которой несколько менее полон — в ней нет модуля факторного анализа, что немного осложняет работу. В новой версии факторизация происходит намного быстрее и удобнее.
Читать далее Контент-анализ в ЛЕКТА. Интерпретация матриц факторного анализа и написание отчёта. Часть шестая
Контент-анализ в ЛЕКТА. Обработка матриц факторного анализа в Ecxel. Часть пятая.
Здравствуйте, уважаемые читатели блога о контент-анализе! Сегодня пост будет небольшим. Мы поговорим об итоговой обработке полученных матриц факторного анализа. На этом этапе мы определим содержание факторов — тематических групп, выраженных набором переменных (лексем) и наборами фрагментов текстов.
Читать далее Контент-анализ в ЛЕКТА. Обработка матриц факторного анализа в Ecxel. Часть пятая.
Лекта. Качественно-количественный контент-анализ. Факторный анализ в Statistica. Часть четвёртая
Здравствуйте, уважаемые читали блога о контент-анализе. В этой статье из серии о программе ЛЕКТА я расскажу вам как обрабатывать базовую матрицу контент-анализа в программе STATISTICA. Обработка будет производиться с помощью факторного анализа. Подчеркну, что в новой версии ЛЕКТА можно проводить факторный анализ без использования сторонних программ типа Statistica или SPSS. Однако, у меня не руках нет новой версии ЛЕКТА, поэтому объяснять принцип идентификации ключевых тематических блоков текстового массива буду на примере программы Statistica. Не пугайтесь — ничего сложного здесь нет, особенно если не лезть в дебри. Дебри оставим для математиков — пусть копаются. Они часто путают математику с реальностью 🙂 Нам эти иллюзии не нужны — математические дебри, как мне кажется, нам ни к чему. Обычно на практике любой замер производится довольно просто. Сложность и дебри актуальны часто в случае необходимости пустить пыль в глаза заказчику. Я такими делами никогда не занимался, ибо работать честно намного приятнее… Итак, поехали: факторный анализ в Statistica!
Объяснять факторизацию буду с использованием Statistica 8 в англоязычной версии. В подробности вдаваться не буду — просто повторяйте те же действия, что и в инструкции, и всё получится! Читать далее Лекта. Качественно-количественный контент-анализ. Факторный анализ в Statistica. Часть четвёртая